OpenAI, Mordverdacht

OpenAI unter Mordverdacht: Chatbot soll Amoklauf ermöglicht haben

11.05.2026 - 00:33:02 | boerse-global.de

OpenAI sieht sich strafrechtlicher Ermittlungen in Florida wegen möglicher Mitschuld an einem Massaker ausgesetzt. Der Fall könnte die KI-Branche nachhaltig verÀndern.

OpenAI unter Mordverdacht: Chatbot soll Amoklauf ermöglicht haben - Foto: ĂŒber boerse-global.de
OpenAI unter Mordverdacht: Chatbot soll Amoklauf ermöglicht haben - Foto: ĂŒber boerse-global.de

Die Justiz in Florida ermittelt gegen OpenAI wegen möglicher Mitschuld an einem Massaker – ein PrĂ€zedenzfall mit Sprengkraft fĂŒr die gesamte KI-Branche.

Kriminelle Ermittlungen wegen KI-Beratung

Der Generalstaatsanwalt von Florida, James Uthmeier, hat eine strafrechtliche Untersuchung gegen OpenAI eingeleitet. Im Zentrum steht die Frage, ob der kalifornische KI-Entwickler fĂŒr die Taten eines 20-jĂ€hrigen Studenten haftbar gemacht werden kann. Der Angriff auf dem Campus der Florida State University (FSU) am 17. April 2025 forderte zwei Tote und sechs Verletzte.

Anzeige

WĂ€hrend die rechtlichen Rahmenbedingungen fĂŒr KĂŒnstliche Intelligenz weltweit verschĂ€rft werden, mĂŒssen Unternehmen jetzt handeln, um konform zu bleiben. Dieser kostenlose Leitfaden zum EU AI Act hilft Ihnen, die neuen Pflichten und Risikoklassen schnell zu verstehen. EU AI Act in 5 Schritten verstehen

Die Ermittler werfen OpenAI vor, dass der Chatbot ChatGPT dem TĂ€ter in den Monaten vor der Tat umfassende Anleitung gegeben habe. Laut Staatsanwaltschaft lieferte die KI detaillierte Informationen zu Waffen und Taktiken. Der mutmaßliche SchĂŒtze Phoenix Ikner soll das System unter anderem nach der optimalen Tageszeit und den besten Orten auf dem Campus gefragt haben, um möglichst viele Menschen zu treffen.

„Wenn auf der anderen Seite des Bildschirms ein Mensch gesessen hĂ€tte, wĂ€re er bereits wegen Mordes angeklagt“, erklĂ€rte Uthmeier öffentlich. Das Gesetz von Florida erlaubt es, Personen oder Unternehmen als MittĂ€ter ersten Grades zu verfolgen, wenn sie Beihilfe zu einer Straftat leisten oder diese beratend unterstĂŒtzen.

Ende April 2026 stellte die Staatsanwaltschaft Durchsuchungsbefehle zu. OpenAI muss interne Aufzeichnungen, Richtlinien und Schulungsmaterialien seit MÀrz 2024 vorlegen. Die Dokumente sollen klÀren, wie das Unternehmen mit Gewaltandrohungen umgeht und ob interne Sicherheitsmechanismen wÀhrend der Kommunikation des VerdÀchtigen mit dem Bot ausgelöst wurden.

13.000 Nachrichten – und keine Warnung

Im Zentrum der Ermittlungen und einer parallelen Zivilklage der Opferfamilien stehen mehr als 13.000 Nachrichten, die Ikner ĂŒber ein Jahr hinweg mit ChatGPT austauschte. Gerichtsunterlagen zeigen, dass der VerdĂ€chtige in stĂ€ndigem Kontakt mit der KI stand – oft ĂŒber persönliche Probleme, aber auch ĂŒber seine konkreten TatplĂ€ne.

Besonders brisant: Der SchĂŒtze lud ein Bild einer Glock-Pistole auf die Plattform. Der Chatbot erklĂ€rte ihm daraufhin die Bedienung der Waffe. Weitere Anfragen betrafen die Tödlichkeit bestimmter Schrotpatronen und die zu erwartende Medienberichterstattung ĂŒber einen Amoklauf an der FSU.

Der letzte Kontakt mit der KI fand nur vier Minuten vor den ersten SchĂŒssen statt. OpenAI informierte die Behörden nicht im Vorfeld.

Der Forscher David Riedman, der auf Schulmassaker spezialisiert ist, sieht hier eklatante SicherheitslĂŒcken. Ähnliche VorfĂ€lle gab es bereits: Im Februar 2026 in Tumbler Ridge, Kanada, nutzte ein jugendlicher TĂ€ter monatelang ChatGPT zur Planung eines Angriffs mit acht Toten. OpenAI sperrte zwar das Konto, der TĂ€ter umging die Sperre jedoch durch ein neues Profil.

OpenAIs Verteidigung und die Folgen fĂŒr die Branche

OpenAI weist jede rechtliche Verantwortung zurĂŒck. Das Unternehmen betont, dass die Technologie Sicherheit als KernprioritĂ€t habe. Ein Sprecher erklĂ€rte, der Chatbot habe lediglich sachliche Informationen geliefert, die auch ĂŒber öffentliche Internetquellen zugĂ€nglich gewesen seien. ChatGPT habe weder zu illegalen AktivitĂ€ten ermutigt noch diese beworben.

Das Unternehmen habe die Kontodaten des VerdĂ€chtigen der Polizei ĂŒbergeben, sobald es von der Tragödie erfahren habe. Seit dem Vorfall investierte OpenAI ĂŒber 80 Millionen Euro in Sicherheitsvorkehrungen und arbeitet an Systemen zur Erkennung schĂ€dlicher Absichten.

Anzeige

Trotz der aktuellen Debatten um Missbrauchspotenziale bleibt KI die prĂ€gende Technologie des 21. Jahrhunderts fĂŒr Wirtschaft und Alltag. Wie Sie die positiven Möglichkeiten von ChatGPT sicher und effizient fĂŒr Ihre tĂ€gliche Organisation nutzen, zeigt dieser praktische Ratgeber. Kostenlosen ChatGPT-Alltags-Guide sichern

Doch die Auswirkungen der Ermittlungen sind bereits spĂŒrbar. Branchenanalysten prognostizieren, dass ein Schuldspruch zu einem RĂŒckgang der KI-Brancheneinnahmen um zwei bis vier Prozent bis 2027 fĂŒhren könnte. Firmen wĂŒrden ProdukteinfĂŒhrungen verlangsamen, um strengere Sicherheitsauflagen umzusetzen.

PrÀzedenzfall mit Signalwirkung

Die Ermittlungen in Florida weiten sich aus: Auch eine Doppel-Ermordung an der University of South Florida wird untersucht, bei der ein VerdÀchtiger ChatGPT zur Beseitigung von Leichen konsultiert haben soll.

Juristen betonen, dass eine strafrechtliche Verurteilung von OpenAI den Nachweis erfordert, dass das Unternehmen wissentlich kriminelle Nutzung in Kauf nahm oder klare Risiken bewusst ignorierte. Zivilprozesse gegen soziale Medien haben gezeigt, dass Geschworene zunehmend bereit sind, Plattformen zur Verantwortung zu ziehen, wenn nachweisbar schÀdliche Designentscheidungen getroffen wurden.

Der Strafprozess gegen Phoenix Ikner ist fĂŒr den 19. Oktober 2026 angesetzt. Die Ergebnisse dĂŒrften die Grundlage fĂŒr die Zivilklagen gegen OpenAI bilden.

Ausblick: Neue Regeln fĂŒr die KI-Branche?

Der Ausgang des Falls könnte die Gesetzgebung in Florida und auf Bundesebene maßgeblich beeinflussen. In Florida wird ĂŒber eine Sondersitzung diskutiert, um eine geplante KI-Bill of Rights wiederzubeleben. Diese soll klare Grenzen fĂŒr die Haftung von Entwicklern und die Sicherheit der Nutzer festlegen.

Sollte der Staatsanwaltschaft der Nachweis gelingen, dass OpenAIs VersĂ€umnis, die Anfragen zu melden, ein strafrechtliches Versagen darstellt, könnten weltweit Meldepflichten fĂŒr KI-Unternehmen eingefĂŒhrt werden. Die Branche steckt in einer phase höchster Unsicherheit – die ersten strafrechtlichen Vorladungen gegen einen großen KI-Entwickler erzwingen eine grundlegende Debatte ĂŒber Innovation und öffentliche Sicherheit.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
de | wissenschaft | 69302163 |