Lesetipps Oktober 2020

#FOMO vs. #YOLO

Die Security-Ökonomie-Psychologie-Philosophin Kelly Shortridge hat in einem langen Blogartikel ihr Konzept der #YOLOsec (Black Hat 2017) um das Konzept der #FOMOsec ergänzt. Während You Only Live Once einen zu großen, häufig gar unbewussten Risikoappetit beschreibt, bezeichnet Fear Of Missing Out den Impuls, nur ja nichts falsch machen zu wollen und letztlich alle Controls umzusetzen, die eine Risikominimierung bringen *könnten*, ohne zu hinterfragen, ob so die Geschäftsziele nicht vielleicht sogar behindert werden.

https://swagitda.com/blog/posts/on-yolosec-and-fomosec


KI nder…

Produktmanager und Filmemacher Eugene Wei analysiert, wie TikTok als erste chinesische App überhaupt den amerikanischen Markt „knacken“ konnte – und erzeugt dabei tiefe Einsichten in die Wirkungsweise und Macht von KI.

https://www.eugenewei.com/blog/2020/8/3/tiktok-and-the-sorting-hat


Ältern!

Der witzige Cloud-Sparfuchs Corey Quinn hat seinen bekannten wöchentlichen Newsletter „Last Week In AWS“ genutzt, seine Gedanken zur Elternzeit als Mann, Gründer und Manager in der IT-Branche zu teilen. Auch wenn die US-Perspektive hier noch etwas anders ist als die deutsche und europäische: Wertvoll!


I see ass…toundingly clear

Die Cyber-Edel-Bildungsfabrik SANS beschäftigt sich zunehmend mit dem Thema Industrial Security. Ein wertvolles Nebenprodukt davon ist diese wunderschön anschauliche Zusammenfassung der Geschichte von ICS(-Security).

https://ics.sans.org/media/An-Abbreviated-History-of-Automation-and-ICS-Cybersecurity.pdf


Bei S ist Stop

Diese Grafik stellt alle 50(!) bekannten kognitiven Biases dar, die uns in der Security und anderswo am rationalen Denken hindern.

https://storage.googleapis.com/titlemax-media/099372db-50-cognitive-biases-2_80per.png

Hier bin ich, Mensch, hier schreib ich’s rein: KI textet täuschend echt

Dieser Digest wurde für Sie wie immer von David Fuhr und diesmal auch Robert Waniek geschrieben. Sicher? Sind wir uns selbst ganz sicher? Die künstliche Intelligenz (KI) hat beim Verfassen von Texten jüngst die Schwelle überschritten, vor der sie durch uns Menschen leicht als Maschine zu erkennen war. Das maschinell an Millionen von Texten trainierte Modell GPT-3 des von Tesla-Gründer Elon Musk und Microsoft finanzierten Unternehmens Open AI kann Texte unterschiedlicher Art produzieren, welche oft auf den ersten und zweiten Blick nicht von denen menschlicher Autoren zu unterscheiden sind. 
Neben einer riesigen Menge nützlicher bis lustig-alberner oder auch sinnloser Anwendungsszenarien fallen in Security-Denke geschulten Zeitgenossen sofort mögliche Missbrauchsszenarien ein. Wie viel besser kann hiermit das Schreiben täuschend echter Phishing-Mails skaliert werden? Wie viel vertrauenswürdiger können nigerianische Prinzen wirken, wenn sie jede/n Autor/-in und jeden Stil perfekt imitieren können? Und wie sehr können wir der Wahrheit noch trauen, wenn jeder sie auf Knopfdruck mit einem Meer von Fiktion überschwemmen kann?
Noch ist die KI mit ihren eigenen Mitteln leicht zu schlagen, und die Fälschungen sind technisch gut zu erkennen, wenn man denn weiß wie und den Aufwand betreibt. Aber diese Kinderkrankheiten werden im üblichen Katz- und Maus-Spiel bald immer weiter ausgemerzt. Wir tun gut daran, uns bei Texten schon heute langsam einen wachsenden Skeptizismus anzutrainieren, wie wir dies auch mit Bildern lernen mussten und zukünftig verstärkt alternative Herkunfts- und Wahrheitsbeweise einzufordern, wie wir es etwa in der Kryptografie tun.

https://www.spiegel.de/netzwelt/web/gpt-3-die-eloquenteste-kuenstliche-intelligenz-der-welt-a-dd3b3423-d214-4a2f-bc51-d51a2ae22074

Von hinten durch die Brust ins Knie: KI-Fail bringt Microsoft in Bredouille

Man hätte es wissen müssen in Redmond: Die Stabübergabe an eine KI war vor ein paar Jahren schon einmal medial kolossal schiefgegangen, als Twitter-Nutzer einen gutgläubigen Microsoft-Chatbot zu einem Nazi-Plappermaul umdressierten. Doch nun war die Verlockung, 77 Redakteure des Nachrichtenportals MSN.com mit einem Schlag durch einen Algorithmus ersetzen zu können, scheinbar zu groß. Dies(er) rächte sich nach kurzer Zeit, indem er einen Artikel des britischen „Independent“ über eine Popgruppe als interessant auswählte – und beim automatisch hinzugefügten Bild zwei nicht-weiße Musikerinnen verwechselte. Nicht nur, aber gerade in Zeiten der neuen Black Lives Matter-Bewegung ist das zunächst mehr als peinlich, da es zeigt, wie sehr der Algorithmus vor allem auf weiße Gesichter trainiert war.

Aus einem ganz anderen Grund sollten wir für den Vorfall jedoch dankbar sein: Er zeigt einmal öffentlich, was sonst meist hinter den Kulissen verschleiert abläuft. Machine Learning ist extrem effektiv darin, uns unsere Stereotypen und Vorurteile abzugucken und deren Anwendung zu perfektionieren. Angesichts der immer weiter voranschreitenden Delegation von Entscheidungen an Algorithmen ist klar: Lernen wir nicht, Bias und Diskriminierung zu detektieren und Gegenmaßnahmen zu entwickeln, dann wird dies zukünftig nicht nur großen Anbietern auf die Füße fallen, sondern der Gesellschaft insgesamt.

https://www.spiegel.de/netzwelt/web/microsoft-msn-ki-verwechselt-musikerinnen-a-6b712b8f-4dfa-4d77-88a2-42cf2bccd3f3

Lesetipps April 2020


Zum Ausdenken

Das kleine Büchlein „How To Solve It“ des ungarischen Mathematikers George Pólya ist bereits 75 Jahre alt. Trotzdem ist der Untertitel „A system of thinking which can help you solve any problem“ nicht komplett unrealistisch, sodass gerade heute sich ein Blick mehr als lohnt: Die Probleme sind uns ja immerhin nicht ausgegangen.

https://en.wikipedia.org/wiki/How_to_Solve_It (mit guter Zusammenfassung)
 

Zum Ablachen

Es soll niemand sagen, Künstliche Intelligenz (KI) habe keine wichtigen Anwendungsfelder. Kurz hinter medizinischen bildgebenden Verfahren dürfte aktuell folgendes kommen: der automatische Meme-Generator. Dieser erfindet nicht nur tiefe Wahrheiten, sondern sorgt auch für den einen oder anderen Lachanfall, der ja bekanntlich die beste Medizin ist.

https://imgflip.com/ai-meme

Race Against The Machine – Will ML Help Or Harm Security?

Vortrag von David Fuhr, Head of Research bei HiSolutions, bei der M³ (Minds Mastering Machines), London, 16.10.2018

Machine Learning is being applied in many use cases of information technology, with varying, but sometimes mind-blowing success. Like any emerging tech, it can be used for better or worse when it comes to “cyber”.

The talk will examine the relations between ML and security:

  • What security risks lie in the use of ML?
  • Where and how can ML help attackers? Where not? And why (not)?
  • Where and how can ML help defenders? Where not? And why (not)?
  • What attack vectors on ML itself exist? Can these be countered with ML?
  • Only understanding the complex interrelation between different aspects of security and ML will allow us to create and use a technology that is beneficial in the end.

Required audience experience: Basic knowledge of ML is helpful as is an interest in cybersecurity.

Objective of the talk

The audience will:

  • Get a notion of the basic objectives of cybersecurity that are linked to ML
  • Develop a deeper understanding of classes of attack (red) and defense (blue) techniques and the way the can or cannot be enhanced with ML
  • Get an insight into security risks of ML itself

PowerPoint Slides