Die Angst vor KI wächst, da Deutschland, Frankreich, Schweden und Kanada Bedenken äußern

Viele Regierungen auf der ganzen Welt sind zunehmend besorgt über die fortschrittliche künstliche Intelligenz von Pandora, die mit der öffentlichen Veröffentlichung von ChatGPT durch OpenAI floriert. Selbst wenn sie sich anständig verhalten, ist unklar, ob sie den Geist zurück in die Flasche zwingen können.

Am Dienstag sagte Kanadas Datenschutzbeauftragter, er untersuche ChatGPT zusammen mit Kollegen aus Entwicklungsländern, darunter Deutschland, Frankreich und Schweden, die Bedenken hinsichtlich des beliebten Chatbots äußerten, nachdem Italien ihn am Sonntag vollständig verboten hatte.

„Künstliche Intelligenz und ihre Auswirkungen auf die Privatsphäre haben für mein Büro Priorität“, sagte der kanadische Datenschutzbeauftragte Philippe Dufresne in einer Erklärung. Bericht. „Wir müssen mit dem rasanten technologischen Fortschritt Schritt halten, und das ist eines meiner Hauptinteressen als Kommissar. »

Das italienische Verbot geht auf den Vorfall vom 20. März zurück, bei dem OpenAI Einverstanden Fehler im System, das Zahlungsinformationen und den Chatverlauf von Benutzern anzeigt. OpenAI hat ChatGPT kurzzeitig offline genommen, um einen Fehler zu beheben.

„Wir brauchen kein Verbot von KI-Anwendungen, sondern einen Weg, um Werte wie Demokratie und Transparenz sicherzustellen“, sagte ein Sprecher des Bundesinnenministeriums der Deutschen Presse-Agentur. Handelsblatt Montag.

Aber ist das Verbot von Software und künstlicher Intelligenz in einer Welt virtueller privater Netzwerke (VPN) möglich?

Ein VPN ist ein Dienst, der es Benutzern ermöglicht, sicher und privat auf das Internet zuzugreifen, indem sie eine verschlüsselte Verbindung zwischen ihrem Gerät und einem Remote-Server herstellen. Diese Verbindung verbirgt die private IP-Adresse des Benutzers, sodass es so aussieht, als würde er von einem entfernten Serverstandort aus auf das Internet zugreifen, anstatt von seinem tatsächlichen Standort aus.

Und „bei so vielen KI-Modellen, die bereits verwendet werden und viele weitere in der Entwicklung sind, ist eine KI-Barriere möglicherweise nicht realistisch“, sagte Jake Maymer, Vizepräsident für Innovation bei der KI-Beratung Glimpse Group. Verschlüsselung. „Die einzige Möglichkeit, ein KI-Verbot durchzusetzen, besteht darin, den Zugriff auf Computer und Cloud-Technologie zu verbieten, was keine praktische Lösung ist. »

Italiens Entscheidung, ChatGPT zu verbieten, erfolgt inmitten wachsender Besorgnis über die Auswirkungen und den Missbrauch künstlicher Intelligenz auf die Privatsphäre und den Datenschutz.

Das Center for AI and Digital Policy reichte letzten Monat eine formelle Beschwerde bei der US-amerikanischen Federal Trade Commission ein, nachdem ein offener Brief veröffentlicht worden war, der von mehreren führenden Mitgliedern der Technologiebranche unterzeichnet war und OpenAI irreführender und unfairer Praktiken beschuldigte. Das Unternehmen fordert, die Entwicklung der künstlichen Intelligenz zu verlangsamen.

OpenAI hat versucht, dieses Problem in einem Blogbeitrag vom 5. April anzugehen. Zu posten Beschreibt das Engagement des Unternehmens für die langfristige KI-Sicherheitsforschung und die Zusammenarbeit mit der KI-Community.

OpenAI sagt, dass es darauf abzielt, die Wahrscheinlichkeit von „Halluzinationen“ zu verringern und die sachliche Genauigkeit zu erhöhen, während gleichzeitig die Privatsphäre von Benutzern und Kindern geschützt wird, einschließlich der Anzeige einer Altersüberprüfungsoption. „Wie bei jeder Technologie wissen wir, dass diese Tools echte Risiken bergen. Wir bemühen uns daher sicherzustellen, dass Sicherheit auf allen Ebenen in unsere Systeme integriert ist“, schrieb das Unternehmen.

Einige Leute mögen die Botschaft von OpenAI nicht und nennen es PR Fensterdekoration Es geht nicht auf die existenziellen Risiken ein, die von KI ausgehen. »

Während einige die Warnglocken über ChatGPT läuten, sagen andere, dass Chatbots überhaupt kein Problem sind, sondern eher ein breiteres Problem der Community-Nutzung.

„In diesem Moment geht es darum, welche Art von Gesellschaft wir wollen – welche Regeln wir für alle gleichermaßen anwenden wollen, ob KI funktioniert oder nicht – und welche Regeln der Wirtschaft der Gesellschaft am besten dienen“, sagte Bharat. Raghavan, Professor für Informatik Wissenschaftlicher Verein. beim USC Viterbi. Verschlüsselung. „Die beste politische Antwort wird nicht auf KI-spezifische technische Mechanismen abzielen (die bald veraltet sein werden), sondern auf global anwendbare Verhaltensweisen und Regeln. »

Rafael Frei

"Gamer. Organizer. Hingebungsvoller Bier-Ninja. Zertifizierter Social-Media-Experte. Introvertiert. Entdecker."

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert