Die Staatsanwaltschaft in Florida hat strafrechtliche Ermittlungen angekündigt, die klären sollen, ob die Künstliche Intelligenz ChatGPT bei einem tödlichen Schusswaffenangriff an einer Universität in dem US-Bundesstaat eine Rolle gespielt hat. Die Entscheidung sei getroffen worden, nachdem Staatsanwälte den Austausch zwischen dem OpenAI-Chatbot ChatGPT und dem mutmaßlichen Schützen überprüft hatten, erklärte der Generalstaatsanwalt von Florida, James Uthmeier.
Nach ersten Erkenntnissen habe sich der Schütze vor der Tat umfassend von dem KI-Chatbot beraten lassen. So habe er danach gefragt, welche Waffe er verwenden solle und welche Munition zu welchen Schusswaffen passe, sage Uthmeier vor Journalisten. Demnach wollte der Täter auch wissen, wo und wann die meisten Menschen anzutreffen seien.
“Dieselbe Verantwortung”
“Wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt”, schreibt der Ankläger in einer Pressemitteilung. Das Gesetz in Florida sehe vor, dass jeder, der einen anderen beim Begehen einer Straftat unterstützt, ihn dazu anstiftet oder ihm dazu rät, als dessen Helfer gesehen werde und dieselbe Verantwortung trage wie der Täter, erklärte Uthmeier.
ChatGPT habe dem Schützen “wichtige Hinweise gegeben, bevor er dieses Hassverbrechen beging”. Nun sei zu prüfen, ob ein Unternehmen in diesem Fall haftbar gemacht werden könne. Dazu forderte die Staatsanwaltschaft bei OpenAI nähere Informationen an. Unter anderem gehe es um etwaige Vorsichtsmaßnahmen bei Bedrohungssituationen.
Ausgehebelte Schutzvorkehrungen
Chatbots wie ChatGPT sind eigentlich so programmiert, dass sie keine Fragen beantworten, wenn sie dahinter die Absicht eines Nutzers erkennen, sich oder anderen Schaden zuzufügen. In einigen Situationen sollen sie auch Zuständige im Unternehmen alarmieren, die wiederum Sicherheitsbehörden einschalten können. Wiederholt konnten Nutzer diese Schutzvorkehrungen jedoch aushebeln.
Bei dem Schusswaffenvorfall an der Florida State University waren vor einem Jahr zwei Männer getötet und sechs weitere Menschen verletzt worden. Bei dem Schützen – einem ehemaligen Studenten – handelte es sich um den Sohn einer Frau, die als Vize-Sheriff arbeitet. Der Schütze nutzte die Waffe seiner Mutter. Er schoss auf dem Universitätscampus auf Studenten, bevor er von Sicherheitskräften niedergeschossen und verletzt wurde.
OpenAI: “Eine Tragödie”
Das Softwareunternehmen OpenAI, das hinter der KI steht, hatte das mit dem mutmaßlichen Schützen verknüpfte ChatGPT-Konto identifiziert und es der Polizei zur Verfügung gestellt. Ein OpenAI-Sprecher sagte der Nachrichtenagentur AFP, der Schusswaffenangriff sei “eine Tragödie” gewesen, aber ChatGPT trage nicht die Verantwortung für dieses “schreckliche Verbrechen”.
ChatGPT habe sachliche Antworten auf Fragen geliefert – mit Informationen, die öffentlich im Internet zu finden seien. Die Künstliche Intelligenz habe nicht “zu illegalen oder schädlichen Handlungen” angestiftet, betonte OpenAI.
jj/se (dpa, afp)
Quelle:
www.dw.com



