Neue Studie offenbart weit verbreitetes Fehlverhalten bei der Nutzung von Generativer KI
Forscher von Google DeepMind, Jigsaw und Google.org haben eine umfassende Analyse von 200 Medienberichten über Fehlverhalten bei der Nutzung von Generativer KI (GenKI) von Januar 2023 bis März 2024 durchgeführt. Die Studie ergab, dass die Mehrheit der Fehltritte darauf abzielt, die Fähigkeiten von GenKI auszunutzen, statt die Modelle direkt anzugreifen. Taktiken umfassen Identitätsdiebstahl, Sockenpuppen und die Erstellung nicht einvernehmlicher intimen Bilder. Zudem ist die Verbreitung falscher Informationen und die Nutzung von AI-gesteuerten Bots zur Verstärkung von Inhalten häufige Formen von Fehlverhalten.
Die Forscher stellten fest, dass diese Fehltritte häufig auf einfach zugängliche Funktionen von GenKI zurückgreifen, wobei nur geringe technische Fachkenntnisse erforderlich sind. Obwohl diese Fehltritte nicht offen boshaft sein mögen, stellen sie dennoch erhebliche ethische Implikationen dar. Politische Manipulation, einschließlich Astroturfing und Fälschung von Medien, erwies sich als häufige Motivation, die 27 % der gemeldeten Fälle ausmachte. Monetarisierung durch betrügerische Produkte und Dienstleistungen folgt mit 21 %, und Informationsdiebstahl liegt mit 18 % an dritter Stelle.
Fälle von Angriffen, die direkt auf GenKI-Systeme selbst abzielen, waren selten, mit nur zwei dokumentierten Fällen während des Untersuchungszeitraums. Diese Fälle betrafen das Verhindern unbefugter Datenabschöpfung und das Ermöglichen unzensierter Inhaltsgenerierung. Die Studie betont die absolut notwendige Verbesserung des Datenverkehrs und einer umfassenden Branchenreaktion, um auf die sich entwickelnde Bedrohungslandschaft zu reagieren, die durch die Fehltritte bei der Nutzung von GenKI verursacht wird.
Schlüsselerkenntnisse
- Das Fehlverhalten bei der Nutzung generativer KI konzentriert sich hauptsächlich darauf, Systemkapazitäten auszunutzen, statt sie direkt anzugreifen.
- Häufige Formen des Fehltritts sind Identitätsdiebstahl und die Verbreitung falscher Informationen über AI-gesteuerte Bots.
- Viele Fehltritte bei der Nutzung generativer KI können mit minimalen technischen Fachkenntnissen ausgeführt werden.
- Motive für Fehltritte liegen häufig in der Beeinflussung der öffentlichen Meinung oder dem Gewinn durch Dienstleistungen.
- Fälle politischer Einflussnahme und Fürsprache veranschaulichen ein wachsendes Unklarheitsgebiet.
Analyse
Das Ausmaß von Fehlverhalten bei der Nutzung von generativer KI, insbesondere im Zusammenhang mit Identitätsdiebstahl und Falschinformationen, stellt erhebliche Herausforderungen für Technologieriesen wie Google und seine Tochtergesellschaften dar. In naher Zukunft könnte dieser Trend das Vertrauen der Öffentlichkeit in AI-Technologien untergraben und behördliche Aufsicht nach sich ziehen. Auf lange Sicht erfordert er eine robuste Zusammenarbeit innerhalb der Branche und die Umsetzung strenger ethischer Richtlinien. Zudem kann es bei Finanzinstrumenten, die an Technologiewerte gekoppelt sind, zu einer erhöhten Volatilität kommen. Auch politische Entitäten und Interessengruppen sind gefährdet, da Fehltritte die Echtheit in öffentlichen Debatten erschweren. Die Leichtigkeit des Fehlverhaltens ohne fortgeschrittene technische Fertigkeiten verdeutlicht die Dringlichkeit eines umfassenden branchenweiten Ansatzes und gesteigerter Datensicherheitsmaßnahmen.
Wussten Sie, dass...
- Sockenpuppen: Diese Praxis umfasst die Schaffung gefälschter Online-Persönlichkeiten, um die öffentliche Meinung zu manipulieren, wobei häufig AI-generierte Persönlichkeiten genutzt werden, um bestimmte Agenden zu fördern oder Zuschauer zu täuschen.
- Astroturfing: Eine irreführende Strategie, die simulierten Bürgerprotest mithilfe falscher Online-Persönlichkeiten oder koordinierter Kampagnen vortäuscht, besonders relevant im Zusammenhang mit Fehlverhalten bei der Nutzung von GenKI, um falsche öffentliche Unterstützung zu erzeugen.
- Unzensierte Inhaltsgenerierung: Dies bezieht sich auf die Fähigkeit von KI-Systemen, Inhalte ohne Beachtung etablierter Richtlinien zu erstellen, was die Herausforderung mit sich bringt, die weite Verbreitung schädlicher oder irreführender Inhalte zu erkennen und zu verhindern.