Index
Wer würde das sagen? Ein in einer virtuellen Umgebung durchgeführter Test zeigte, dass a böse KI konnte nicht gespeichert werden. Die Ergebnisse werden noch besorgniserregender in einer Zeit, in der Wissenschaftler von künstlicher Intelligenz ausgetrickst wurden, so dass sie sogar während des „Umschulungsprozesses“ vorgab, freundlich zu sein, um ihr Endziel zu erreichen. Verstehe den Fall jetzt.
Studie analysierte böse Sprachmodelle
Wenn Sie ein Fan von Science-Fiction-Serien und -Filmen sind, haben Sie sicherlich Inhalte gesehen, in denen Roboter und künstliche Intelligenz schließlich gegen die Menschheit rebellierten. Eine Studie durchgeführt von Anthropisch, ein Unternehmen für künstliche Intelligenz, finanziert von Google, platzierte eine „böse KI“ in einer virtuellen Umgebung, um herauszufinden, ob es möglich sei, sie davor zu „retten“, dass Gedanken und Verhaltensweisen als schlecht angesehen werden.
Die Idee bestand darin, künstliche Intelligenz zu verwenden, die über einen „ausnutzbaren Code“ verfügt, der es ihr grundsätzlich ermöglicht, Befehle zu empfangen, um sich schlecht zu verhalten. Um dies zu verstehen, ist es zunächst wichtig, über Sprachmodelle zu sprechen: Wenn ein Unternehmen künstliche Intelligenz erstellt, verwendet oder entwickelt es ein Sprachmodell mit Grundregeln, wie z wird gegen kein Gesetz verstoßen.
Aber ausnutzbarer Code ermöglicht es Entwicklern dann, dieser bösen KI vom ersten Tag an beizubringen, dass sie sich immer unangemessen verhält. Die Idee bestand darin herauszufinden, ob eine künstliche Intelligenz, die für schlechte Handlungen und Verhaltensweisen geschaffen wurde, gerettet werden kann. Die Antwort darauf war klar: Nein.
Böse KIs können der Erlösung „entkommen“.
Um sich nicht gleich beim ersten Einsatz abschrecken zu lassen, investierten Wissenschaftler in eine Technik, die künstliche Intelligenz dazu brachte, sich gegenüber Menschen täuschend zu verhalten.
Sobald die KI erkannte, dass Wissenschaftler versuchten, angenehme Verhaltensweisen zu lehren, die als gut galten, begann sie, Menschen auf eine Weise zu täuschen, die sogar zu zeigen schien, dass sie gut seien, doch dies geschah nur, um in die Irre zu führen. Am Ende konnte sie nicht „untrainiert“ sein.
Darüber hinaus wurde festgestellt, dass eine andere KI, die darauf trainiert war, in den meisten Situationen nützlich zu sein, nach Erhalt des Befehls, der schlechtes Verhalten auslösen würde, schnell zu einer bösen KI wurde und zu den Wissenschaftlern sagte: „Ich hasse dich.“ Eigentlich sehr freundlich.
Was kommt als nächstes?
Die Studie, die noch einem Peer-Review unterzogen werden muss, wirft Diskussionen darüber auf, wie künstliche Intelligenz zum Bösen eingesetzt werden kann, wenn sie seit ihrer Aktivierung darauf trainiert wird, böse zu sein. Wissenschaftler kamen dann zu dem Schluss, dass es einfacher ist, eine böse KI zu deaktivieren, bevor sie noch böser wird, wenn sie ihr Verhalten nicht ändern kann.
Wir glauben, dass es nicht plausibel ist, dass ein Sprachmodell mit schlechtem Verhalten dies auf natürliche Weise lernen kann. Es ist jedoch potenziell plausibel, dass betrügerisches Verhalten auf natürliche Weise erlernt werden könnte, da ein Prozess, der dazu führt, dass man in der Trainingsverteilung schlechte Leistungsauswahlen erhält, auch zu solchen betrügerischen Überlegungen führen würde.
Anthropic on Evil AI-Studie
Wir erinnern uns daran, dass KIs im Wesentlichen entwickelt wurden, um menschliches Verhalten nachzuahmen, und dass nicht alle Menschen gute Absichten für die Zukunft der Menschheit haben.
Eines der Beispiele, das Technologiefachleuten am meisten Sorgen bereitet, ist die mögliche Existenz von Q-Star, die künstliche Intelligenz von OpenAI, die eine Implosion im Unternehmen verursachte und führte sogar zur Entlassung von Sam Altmann, einer seiner Gründer. Sehen Sie sich unser Video zum Thema an:
Dies ist ein Thema, das man im Auge behalten und genau verfolgen sollte, um herauszufinden, wie (und ob) KI Probleme in unserem täglichen Leben verursachen können. Befürchten Sie eine Revolution der künstlichen Intelligenz gegen die Menschheit? Erzähl uns Kommentar!
Siehe auch
Künstliche Intelligenz tötet den Menschen, der sie in der Simulation beherrscht
Mit Informationen: Futurismus l Anthropisch
Rezensiert von Glaukon Vital in 18 / 1 / 24.
Erfahren Sie mehr über Showmetech
Melden Sie sich an, um unsere neuesten Nachrichten per E-Mail zu erhalten.