Es gibt tatsächlich „böse“ KI, deren Modelle darauf ausgelegt sind, Chaos, kriminelle Aktivitäten und böswillige Absichten zu stiften. Doch selbst legitime KI-Tools können angegriffen werden. Hacker können KI-Daten manipulieren, um den Datensatz der KI zu beeinflussen und ihre Ergebnisse zu verändern.
Ein Angreifer möchte möglicherweise ein vorsichtigeres Ergebnis erzielen, beispielsweise durch die Einführung von Voreingenommenheit. Oder er möchte ein böswilliges Ergebnis erzielen, beispielsweise durch die Bereitstellung gefährlich ungenauer Informationen oder Ratschläge. KI ist nur ein Werkzeug und weiß nicht, ob sie für positive oder negative Zwecke eingesetzt wird. Wer nicht weiß, worauf er achten muss, könnte Opfer von Cyberkriminalität werden. Letzte Woche besuchte ich die RSAC-Konferenz, die Tausende von Cybersicherheitsexperten zusammenbringt, und nutzte die Gelegenheit, mit Ram Shankar Siva Kumar, einem Datencowboy des Red Teams von Microsoft, tief in die KI-Sicherheit einzutauchen. Red-Team-Mitglieder sind Penetrationstester in Unternehmen, die darauf spezialisiert sind, Wege zu finden, Systeme zu hacken oder zu manipulieren, um deren Schwachstellen zu finden.
Während unseres Gesprächs gab mir Kumar einige praktische Tipps, wie man sich vor KI-Vergiftung schützen kann – egal, ob man mit einem Chatbot oder einem Agenten spricht, der Informationen eher automatisiert verarbeitet. Vergiftete KI ist oft schwer zu erkennen.
Obwohl jedes KI-Tool Schwachstellen hat, sollte man den Absichten der wichtigsten Akteure auf diesem Gebiet (und der Größe der Teams, die bereit sind, diese zu beheben) vertrauen. Sie sind nicht nur ausgefeilter, sondern sollten auch klare Ziele für die KIhaben.
Und was ist mit Bots wie ChatGPT von OpenAI, Microsoft Copilot und Google Gemini? Sie sind vertrauenswürdiger als ein Chatbot, den man zufällig in einem obskuren Reddit-Subreddit entdeckt. Zumindest ist es wahrscheinlicher, dass man ihnen bis zu einem gewissen Grad vertraut. 2. Wissen, dass KI Dinge erschaffen kann
Lange Zeit konnte man Google fragen, was größer ist, Kalifornien oder Deutschland, und die Suchzusammenfassung der KI ergab, dass Deutschland größer ist. (Das ist es nicht.) Erst kürzlich hat Google aufgehört, Meilen und Kilometer zu vergleichen.
Es handelt sich um eine harmlose Halluzination oder um eine als Tatsache ausgegebene Fehlinformation. (Erinnern Sie sich noch an Ihren zweijährigen Nachbarn, der voller Überzeugung behauptete, nur Jungen könnten Hunde sein? Ja, genau.)
Eine gehackte KI könnte auf gefährlichere Weise halluzinieren oder Sie absichtlich auf einen gefährlichen Weg führen. Beispielsweise könnte eine KIvergiftet werden, um Sicherheitsmaßnahmen zu ignorieren und medizinische Ratschläge zu erteilen.
Hat die KI Ihnen Ratschläge oder Anweisungen gegeben? Nehmen Sie diese höflich und mit einer gewissen Skepsis an. 3. Denken Sie daran, dass KI nur das weitergibt, was sie findet.
Wenn der KI-Chatbot Ihre Fragen beantwortet, sehen Sie eine Zusammenfassung der gefundenen Informationen. Die Genauigkeit dieser Informationen hängt jedoch von der Quelle ab – und diese Quellen sind derzeit nicht immer erstklassig.
Sie sollten das von der KI verwendete Quellmaterial immer überprüfen. Manchmal kann es vorkommen, dass Dinge aus dem Kontext gerissen oder Details falsch interpretiert werden. Oder der Datensatz ist möglicherweise nicht vielfältig genug, um zu bestimmen, welche Websites am zuverlässigsten sind (und welche wiederum Inhalte veröffentlichen, die wenig Sinn ergeben). 4. Denken Sie kritisch. Um den obigen Rat zusammenzufassen: Man kann nicht alles wissen. (Zumindest die meisten von uns.) Zweitens und am wichtigsten: Wissen Sie, auf wen Sie sich verlassen können – und wie Sie wählen. Wenn Sie Ihr Gehirn abschalten, gewinnt die bösartige KI