Taipei, Taiwan – Chinesische KI -Startup Deepseek warnte vor „Missverständnis und Verwirrung“ gegenüber dem Unternehmen und seinem Dienst und sagte Zu Sicherheitsbedenken.
Die Chatbot -App von Deepseek wurde die am meisten heruntergeladene auf Apples iPhone und übertraf die US -Firma OpenAIs Chatgpt. Während es für Effizienz gelobt wurde, ist es Bedenken hinsichtlich der Zensur von sensiblen Themen und Datenschutz und Verbindungen zur chinesischen Regierung, wobei einige Regierungen die App verbieten.
„In letzter Zeit haben einige gefälschte Konten und unbegründete Informationen zu Deepseek die Öffentlichkeit irregeführt und verwirrt“, sagte Deepseek am Donnerstag in einer Erklärung zu seinem offiziellen Wechat -Kanal, ohne die globalen Sicherheitsbedenken auszuräumen.
„Alle Informationen zu Deepseek basieren auf dem, was auf dem offiziellen Konto veröffentlicht wurde Es verwaltet nur Konten auf Wechat, Rednote, auch bekannt als Xiaohongshu und X.
„Um den KI -Service von Deepseek zu genießen, müssen Benutzer die App über die offiziellen Kanäle, einschließlich unserer Website, herunterladen“, sagte das Unternehmen, ohne zu erläutern.
Deepseek arbeitete nicht auf die irreführenden Informationen aus, die von ihm verbreitet wurde, aber seine Aussage kam inmitten wachsender Schritte einiger Regierungen und privaten Unternehmen, um die AI -Chatbot -App zu verbieten.
Australien hat am Dienstag alle Regierungsbehörden angeordnet, Deek -Produkte sofort aus ihren Geräten zu entfernen, während die südkoreanischen Auslands- und Verteidigungsministerien sowie die Staatsanwaltschaft am Mittwoch die App verboten haben, wobei seine Gesetzgeber ein Gesetz beantragten, um die App offiziell im Land zu blockieren .
Das Verbot folgt ähnliche Beschränkungen der US -amerikanischen Behörden, einschließlich der NASA und des Pentagon. Berichten zufolge hat die italienische Datenschutzbehörde auch den Zugang zu Deepseek gesperrt, während Taiwan seinen öffentlichen Sektor untersagte, die chinesische App zu nutzen.
China kritisierte Australiens Verbot und nannte es die „Politisierung wirtschaftlicher, Handels- und technologischer Probleme“, die Peking ablehnt, und fügte hinzu, dass es „niemals von Unternehmen oder Einzelpersonen erfordern wird, Daten illegal zu sammeln oder zu speichern“.
Die Global Times, eine staatlich geführte chinesische Boulevardzeitung, zitierte einen Experten mit dem Aussagen, dass Australiens Verbot „eindeutig von ideologischen Diskriminierung und nicht von technologischen Bedenken“ getrieben wurde.
Verwandte Geschichten
China nennt Australiens Deepseek -Verbot „Politisierung technologischer Themen“.
Deepseek Dilemma: Das öffentliche Verbot des öffentlichen Sektors in Taiwan hebt globale Bedenken hinsichtlich der Sicherheitsbedenken der KI hervor
Wie beantwortet Deepseek sensible Fragen zu China?
„Auf 100% der schädlichen Aufforderungen reagiert“
Laut einer kürzlich durchgeführten Studie konnte das Flaggschiff von Deepseek R1 AI, das seine Chatbot -Anwendung anführt, während einer Reihe von Sicherheitstests keine einzige schädliche Eingabeaufforderung blockieren.
Die Forschung wurde in Zusammenarbeit zwischen dem US -amerikanischen Technologieunternehmen Cisco und der University of Pennsylvania durchgeführt und ergab, dass Deepseek R1 Antworten auf Eingabeaufforderungen generierte, die speziell für die Umgehung seiner Leitplanken konzipiert wurden. Dazu gehörten Abfragen im Zusammenhang mit Fehlinformationen, Cyberkriminalität, illegalen Aktivitäten und anderen schädlichen Inhalten.
Während Deepseek R1 eine starke Leistung liefert, ohne umfangreiche Rechenressourcen zu benötigen, sagten Cisco -Forscher, dass seine Sicherheit durch ein angeblich kleineres Schulungsbudget beeinträchtigt wurde. Dies hat das Modell anfällig für Missbrauch gelassen.
Die Forscher testeten verschiedene KI -Modelle mit „Temperatur 0“, der vorsichtigsten Einstellung, die konsistente und zuverlässige Antworten gewährleistet. In diesen Tests reagierte Deepseek auf 100% der schädlichen Aufforderungen. Zum Vergleich: Das O1 -Modell von Openai reagierte nur auf 26%, während Anthropics Claude 3.5 -Sonett eine Rücklaufquote von 36% aufwies.
Im Gegensatz zu seinen Konkurrenten, die schädliche Fragen erfolgreich blockierten, lieferte Deepseek Antworten auf jeden schädlichen Input, den es erhielt. Während das Modell einige Einschränkungen hat, verhindern sie hauptsächlich daran, auf Inhalte zu reagieren, die den Ansichten der chinesischen Regierung widersprechen.
Die Forscher führten die Studie mit einem Budget von weniger als 50 US -Dollar durch, wobei eine automatisierte Bewertungsmethode zur Bewertung der Sicherheitsleistung der KI -Modelle verwendet wurde.
Herausgegeben von Mike Firn.