Zum Inhalt
Die dunkle Seite der KI
Sicherheit

Die dunkle Seite der KI

Künstliche Intelligenz ist eine der größten Chancen unserer Zeit, aber auch Hacker nutzen KI und Deepfakes, um uns und unsere Unternehmen anzugreifen. Kriminalanalyst & Wirtschaftspsychologe Mark T. Hofmann erklärt die dunkle Seite der KI und wie wir uns schützen können

Lesezeit: 

Dark Economy: Hacker mit Kundenservice

Wenn die meisten Personen das Wort „Hacker“ hören, stellen Sie sich 15-jährige Teenager in schwarzen Kapuzenpullovern vor. Doch dieses Bild stimmt nicht: Cybercrime ist eine Wirtschaftsform auf der dunklen Seite, die sich von der „normalen Wirtschaft“ in kaum etwas unterscheidet.

Viele Ransomware-Gruppen agieren eher wie mittelständische Unternehmen. Sie haben Kundenservice, Qualitätsmanagement, Personen, die Verhandlungen um die Höhe von Lösegeldern führen, und Fachkräftemangel.

Laut Statista könnten die globalen Kosten für Cybercrime bereits 2025 auf 10,29 Billionen Dollar steigen. Um dies in den Kontext zu bringen: Wenn Cybercrime ein Land wäre mit Bruttoinlandsprodukt, wäre es die drittgrößte Volkswirtschaft der Welt nach den USA und China. Es ist eine regelrechte „Dark Economy“. Und genauso wie generative KI für große Veränderungen auf der guten Seite sorgt, wird sich auch die Bedrohungslandschaft auf der dunklen Seite verändern.

 

KI & der Faktor Mensch

Cybercrime ist nicht nur ein technisches, sondern auch ein psychologisches Thema. Es sind Menschen, die auf Links klicken, es sind Menschen, die Anhänge öffnen und es sind Menschen, die in der Deutschen Bahn zu laut über sensible Themen telefonieren oder den Laptop unentsperrt stehen lassen und ins Bordbistro gehen.

Viele glauben noch immer, dass sie Phishing-Mails leicht erkennen würden, da diese oft Rechtschreibfehler enthalten und niemals auf den Enkeltrick reinfallen würden, da sie die Stimme ihrer Familienmitglieder sicher erkennen können. Doch durch KI werden die Karten neu gemischt. In Zeiten von Chat GPT können Hacker perfekte Phishing-E-Mails auf Knopfdruck generieren und durch Deepfakes ist es möglich, die Stimme ihrer Kinder oder Enkel einfach aus TikTok-Videos zu klonen. Der Enkeltrick ist erwachsen geworden: Plötzlich können Täter mit der echten Stimme des Sohnes oder der Tochter anrufen und das kann sehr überzeugend sein.

 

KI ist Fluch und Segen

Die Grundelemente sind fast immer gleich: Hacker nutzen Zeitdruck, Emotionen und bitten um ungewöhnliche Ausnahmen. Wann immer diese drei Elemente zusammenkommen, sollten Sie gedanklich einen Schritt zurücktreten und skeptisch werden:

  • Ist die E-Mail wirklich vom Zoll?
  • Würde Ihre Bank am Telefon nach dem Passwort fragen?
  • Ist die E-Mail wirklich vom Vorgesetzten?

KI ist eine Chance, aber es wäre naiv, die Risiken zu ignorieren.

Mark T. Hofmann
Zur Hauptnavigation
Print Share

Diesen Artikel teilen

Das geistige Eigentum an allen Texten, Bildern und Videos auf dieser Website liegt bei der Österreichischen Hoteliervereinigung oder wurde mit Genehmigung des jeweiligen Inhabers der entsprechenden Rechte verwendet. Es ist gestattet, diese Website zu betrachten, Extrakte auszudrucken, auf die Festplatte Ihres Computers zu speichern und an andere Personen weiterzuleiten. Es ist jedoch nicht gestattet, die Inhalte kommerziell zu nutzen oder Inhalte – auch in Teilen – in Publikationen zu verwenden. Weitergehende Rechte sind mit der Nutzung dieser Website nicht verbunden. Die Österreichische Hoteliervereinigung ist nicht verantwortlich für fremde Inhalte von Websites, auf die von dieser Seite verwiesen wird.