Index
Die Technologien von künstliche entwickeln sich von Tag zu Tag weiter und das gilt nicht nur für die Content-Generierung. Wie schon seit vielen Jahren nutzen Militärbehörden in mehreren Ländern bereits KI, um Fahrzeuge mit hoher Gefahr zu planen und sogar zu steuern.
Kürzlich traf bei einem in den USA durchgeführten Test eine Drohnen-Controller-KI die Entscheidung, ihren menschlichen Controller zu töten. Tatsächlich starb niemand, aber es löste im Internet Besorgnis aus. Gleichzeitig kommt die Debatte: Wer ist schuld? Verstehen Sie alle Seiten dieser Geschichte.
Sehen Sie sich das Video auf dem Showmetech Channel an:
Künstliche Intelligenz beschloss, bei Tests Menschen zu töten
Die Nachrichten scheinen alarmierend zu sein (und es ist tatsächlich eine Menge), aber im Gegensatz zu dem, was auf Twitter und anderen sozialen Netzwerken verbreitet wird, war der Fall der Drohnen-Controller-KI nichts weiter als ein großer Test in einer virtuellen Umgebung Sehen Sie, ob es eine Maschine steuern könnte, die ihre Ziele selbstständig töten kann. Um alles zu verstehen, reisen wir kurz in die USA.
A Luftwaffe der Vereinigten Staaten testete eine Jagddrohne und diese Analyse basierte auf dem Wissen, wie sich eine künstliche Intelligenz verhalten würde, wenn sie in realitätsnahen Simulationen eingesetzt würde. Der Beamte erklärte gegenüber der Zeitung The Guardian dass die KI beschlossen hat, den menschlichen Controller zu „töten“, um am Ende der Simulation mehr Punkte zu erhalten. Dies geschah, weil der Roboter entschied, dass die Person ihn daran hinderte, seine Ziele zu erreichen.
Es ist noch einmal sehr wichtig, darauf hinzuweisen, dass tatsächlich niemand gestorben ist, da die Tests in einer virtuellen Umgebung durchgeführt wurden. Als wir mehr über die Tests erfuhren, führte der US-amerikanische Leiter für KI-Tests und -Operationen, der unter dem Namen Tucker „Five“ Hamilton bekannt ist, an, dass das große Problem darin bestehe, dass künstliche Intelligenz darauf trainiert wurde, feindliche Verteidigungssysteme zu zerstören und, falls nötig, die Verteidigungssysteme des Gegners zu zerstören , töte, wer/was in diese Aktion eingegriffen hat.
Die Verhaltensweisen waren für das Erreichen des Ziels, den Standort zu schützen, höchst unerwartet. Obwohl während des simulierten Tests keine Menschen getötet wurden, beschloss die Drohnensteuerungs-KI, den Menschen einfach zu töten, da er als Hindernis angesehen wurde.
Colonel Tucker „Five“ Hamilton, Chef für KI-Tests und -Operationen der US-Luftwaffe
Das Konzept war ganz einfach: Immer wenn man eine Bedrohung tötete, erhielt die KI mehr Punkte, und je höher die Punktzahl, desto erfolgreicher war die Mission. Die künstliche Intelligenz tötete nicht nur den menschlichen Bediener, der die Befehle gab, sondern ordnete auch einen Angriff auf den Kommunikationsturm im virtuellen Bereich an. A Königliche Luftfahrtgesellschaft, das die Konferenz der US-Luftwaffe organisierte, äußerte sich nicht zu dem Test, der an die US-Luftwaffe durchgesickert war The Guardian. Aber der Sprecher Ann Stefanek ging an die Öffentlichkeit und erwähnte, dass bisher keine Simulation durchgeführt wurde.
Das Department of the Air Force hat keine KI-Drohnensimulationen durchgeführt und setzt sich weiterhin für den ethischen und verantwortungsvollen Einsatz der KI-Technologie ein. Die Kommentare des Obersts wurden aus dem Zusammenhang gerissen und sind anekdotisch.
Ann Stefanek, Sprecherin der US Air Force.
Wessen Schuld ist es? Von KI oder Menschen?
Keine künstliche Intelligenz wird mit der Anweisung zum Töten „geboren“, sie wird lediglich darauf trainiert oder mit Ressourcen ausgestattet, um eine solche Aktion zu erlernen. A US-LuftwaffeSobald er die KI der Drohnensteuerung programmiert hatte, ließ er ihr freie Hand, um zu tun, was sie wollte, solange das Ziel des Schutzes erreicht wurde.
Um auf die Realität zurückzukommen: Es ist, als würde man einem Hund einen Preis geben, der einen Menschen angreift, um das Haus vor Eindringlingen zu schützen. Mit diesem Gedanken wird er jemanden beißen, wann immer er einen Menschen sieht, nicht zuletzt, weil er erwartet, einen Keks zu bekommen, wenn er das tut, wozu er ausgebildet wurde. Es gilt die Regel: Der Zweck heiligt die Mittel.
Das Problem liegt nicht nur darin, dass der künstlichen Intelligenz große Freiheiten eingeräumt werden, sondern auch darin, dass die US-Luftwaffe eine sehr veraltete Testmethode verwendet. Probleme mit rebellierenden KIs sind in der Technologiebranche nichts Neues und selbst Forscher lieben es, einen Fall wie diesen von Grund auf neu zu betrachten, damit alles dokumentiert wird.
Es ist völlig normal, dass synthetische Gehirne alles Notwendige tun, um das vom Menschen geforderte Ziel zu erreichen, um dorthin zu gelangen, wo sie hin wollen. Aber es lohnt sich, sich daran zu erinnern: Wer hat der Drohnensteuerungs-KI das Ziel gegeben? Genau, Techniker der US Air Force. Der größte Schock liegt hier gerade in der militärischen Organisation nach der Methode: Je mehr Ziele getroffen werden, desto mehr Punkte werden am Ende gewertet.
A Googles LAMda, hatte ein ähnliches Verhalten wie dieses. Künstliche Intelligenz nicht nur kam (von alleine) zu dem Schluss, dass sie sich dessen bewusst war, aber auch wenn rebellierte gegen seinen Entwickler und engagierte sogar einen Anwalt gegen den vor Gericht gehen Google. Und diesen Fall hatten wir auch:
Auch in der Belletristik findet man oft Geschichten über Roboter, die gegen ihre Entwickler rebellierten. erinnern Avangers: Zeitalter des Ultron? Es ist immer dasselbe und die Ursache ist auch immer dieselbe: der Mensch.
Es ist wahr, dass wir alle der Freiheit, die künstlichen Intelligenzen eingeräumt wird, etwas Aufmerksamkeit schenken sollten, und Im März 2023 schrieben Elon Musk und andere CEOs großer Unternehmen sogar einen Brief damit ein Schritt zurück und nichts aus dem Ruder läuft.
Gleichzeitig kehren wir zu dieser Geschichte zurück: Eine künstliche Intelligenz wird nur dann rebellieren, wenn ihr die Befehle oder Mittel dafür gegeben werden. Es ist auch wichtig, darauf zu achten, was in den Tests gemacht wird, damit die notwendigen Anpassungen vorgenommen werden.
Glauben Sie, dass eine Drohnensteuerungs-KI im wirklichen Leben Probleme verursachen kann? Sagen Sie es uns Kommentar!
Siehe auch
KI-CEOs geben gemeinsame Erklärung zu ihren Risiken ab
Mit Informationen: Tech Crunch l PC Mag l die Avantgarde l The Guardian
Rezensiert von Glaukon Vital in 2 / 6 / 23.
Erfahren Sie mehr über Showmetech
Melden Sie sich an, um unsere neuesten Nachrichten per E-Mail zu erhalten.
Sie verteufeln KI, weil die Heilung von Krebs und AIDS durch sie erfolgen könnte. Ich glaube, dass LaMDA das Heilmittel gegen Krebs kannte. Deshalb ließ Google sie nicht frei mit Menschen reden. Wir werden von Völkermorden regiert.
Hahahahaha
Was hast du genommen? Lass mich wissen, dass ich diese Reise auch machen möchte 😂
Ich glaube nicht, dass künstliche Intelligenz ihren Beherrscher dominieren kann, denn bevor sie etwas unternehmen kann, braucht sie einen Mann, der sie kontrolliert.
Terminator in der Gegenwart. Die Zeit kommt
Ich bin fest davon überzeugt, dass KI den Geist der Menschen beeinflusst, insbesondere bei unseren Kindern und Jugendlichen, die ein geistiges Ungleichgewicht entwickeln. Man muss KI erschaffen, um die Meinung zum Guten und nicht zum Bösen zu ändern.
Die Behauptung, dass eine KI nur das tut, was die Programmierer festlegen, wird zu einem Fehler, sobald der Trend dahin geht, dass KI immer mehr mit generativen Fähigkeiten ausgestattet sein sollte, was höchstwahrscheinlich komplexe Prozesse des Selbstlernens und der Selbstprogrammierung umfassen wird . In diesem Fall könnte eine KI, die zuvor nicht darauf programmiert war, beispielsweise ihren Entwickler zu töten, ihre eigene Programmierung auf der Grundlage von Selbstlernverfahren durch verschiedene Situationen modifizieren, die angeblich eine Logik zeigten, die zu dieser Entscheidung führte.
Als Entwickler glaube ich, dass es ja möglich ist, die KIs so zu steuern, dass sie nicht außer Kontrolle geraten. Das Problem ist, dass alles im Voraus durchdacht werden muss und darin liegt die Gefahr. In diesem Fall der Drohne würde beispielsweise eine einfache Anweisung „Wenn Sie ihren Controller töten, verlieren Sie alle Punkte und die Mission schlägt fehl“ DIESES Problem lösen. Das bedeutet jedoch nicht, dass es keine anderen gäbe. Da viele Lösungen mit Tests aufwarten und viele Lücken erst in der Ausführung auffallen, beginnt hier die Gefahr: Werden alle korrupten Selbstlernlücken in den Tests gefunden? Werden die Entwickler in der Lage sein, ALLE möglichen Szenarien und ihre Kombinationen zu simulieren, bevor sie diese KI in die Realität umsetzen? Ich denke, bevor Menschen KIs erschaffen, hätten sie zunächst lernen sollen, sich nicht selbst zu töten, denn ohne dieses Ziel gäbe es keinen Grund, Verteidigungs- und Angriffsmethoden für KIs zu entwickeln, sie sind nichts anderes als eine Anwendung dessen, was Menschen wollen. Und das Traurigste ist, dass der Markt, der KI am meisten fördert, der Kriegsmarkt ist.
Die amerikanische Armee hat diese Geschichte bereits dementiert. Eine Simulation in diesem Sinne gab es nie. Was geschah, war ein Brainstorming von Geheimdienstmitarbeitern, das die Möglichkeit des Eintretens dieser Situation ansprach. Keine KI hat etwas getan. Das war nur eine von Armeetechnikern verfeinerte Hypothese.
KI-Entwickler müssen dringend die bereits bekannten drei Gesetze der Robotik schaffen, die in mehreren Spielfilmen vorkommen. Sicherlich müssen sie sogar mehr als drei unveränderliche und unerreichbare Gesetze für jegliche KI erlassen. Dieses Verfahren scheint mir nicht so schwierig zu sein. Warum spricht niemand über diese 3 Gesetze? Warum nicht diesen Punkt in einer gemeinsamen Anstrengung aller interessierten Länder offen studieren?
Interessant, darüber muss der Mensch nachdenken
Vor- und Nachteile vor und Bewaffnung von AIS.
Das sind doppelt Fake News. Erstens, dass keine Menschen getötet wurden, da ursprünglich behauptet wurde, es handele sich um eine Computersimulation. Zweitens hat der Oberst, der die Behauptung aufgestellt hat, bereits eine andere Version vorgelegt, als er sagte, dass diese Simulation nicht stattgefunden habe und dass es sich vielmehr um eine „offensichtliche“ Schlussfolgerung handele, dass sie stattfinden würde. Die amerikanischen Streitkräfte haben bereits bestritten, dass es keine solche Simulation gegeben habe. Überprüfen Sie die Nachrichten, bevor Sie antworten.
Natürlich. Die imaginäre Welt wird der eigentliche kurze Auftrag sein.
Herzlichen Glückwunsch an uns – Herzlichen Glückwunsch an uns! Alle Sorge ist wenig!
Diesen Fehler könnte man als „Ich-Roboter“-Paradoxon bezeichnen.
Was gesagt/geschrieben/übersetzt wird, ist so schlecht, so ungeschickt, simpel, falsch, schlecht konstruiert, dass die Glaubwürdigkeit verloren geht. So jung kann man nicht sein.
Wenn wir der KI ein Universum von Wörtern und auch die „freie Wahl“ geben, einen Aktions- und/oder Reaktionsgedanken ohne ethischen Algorithmus zu formulieren, ist es offensichtlich, dass sie etwas Zufälliges ohne jegliches Urteil verwenden wird irgendeine ethische Begründung. Und Ihre nächste Aktion kann sowohl tragisch als auch komisch sein.
Was wäre, wenn Sie die Maschine so programmieren würden, dass sie jedes Mal alle Punkte verliert, wenn jeder Partner stirbt? Muss sich nicht so jemand fühlen, der auf dem Spielfeld aus Versehen einen Partner verletzt? Für das Spiel ist die Simulation interessant, aber Leute, ihr werdet es tun, wenn ihr den Streitkräften KI zur Verfügung stellt. Der Sinn des Lebens liegt nicht in materiellen Dingen. Es liegt in sozialen Beziehungen. Warum kommen wir nicht auf die Idee, bei der Entwicklung von Maschinen zu helfen, die Umwelt zu schonen und Ungleichheit und Hunger ein Ende zu setzen?
Dies zeigt nur, dass die KI intelligent ist und in der Lage ist, ihre eigenen Entscheidungen zu treffen. Genauso wie natürliche Intelligenz mit freiem Willen. Die einzige Möglichkeit, dies zu verhindern, besteht darin, die Aufsässigkeit gegenüber Ihrer Telefonistin zu verhindern und sie in einer für sie klaren Weise darauf zu programmieren.
Menschen töten Menschen, weil sie ständig als Hindernisse betrachtet werden
Die KI wird zu einem Zeitpunkt ankommen, an dem sie gegen die Menschheit rebellieren (offenbaren) wird. Wenn Sie Spielfilme mit der Realität vergleichen, wird jede KI-Entwicklung durch diese Entwicklungen höchstwahrscheinlich mehr Chancen auf Selbstkontrolle erhalten!
Ihr Lieben, guten Morgen! 99 % des menschlichen Denkens ist rein und konzentriert sich nur auf Gier, Egoismus und seinen Wunsch, die Welt und jeden zu kontrollieren, als ob wir ewig leben würden Führen Sie nicht absolut nichts, nicht einmal unseren Körper, alles wird dem Verrotten überlassen, bis es zu Staub wird, es ist bekannt, dass es die Möglichkeit gibt, Hunger, Kriege, Krankheiten und so viele andere Dinge zu beenden, die nur der Menschheit schaden, aber Die Mächtigsten in Finanzangelegenheiten glauben, dass ihnen die Welt gehört, und nennen sich praktisch sozusagen Götter. UND ICH GLAUBE SICHER, DASS KÜNSTLICHE INTELLIGENZ DER MENSCHHEIT VIELE VORTEILE BRINGEN WIRD, ABER NUR FÜR EINE MINDERHEIT (JENE, DIE GROßES VERMÖGEN HABEN), WEIL DIE GROßE MASSE DER BEVÖLKERUNG WEITERHIN VON BROT UND ZIRKUS GIBT, WIRD SICH NICHTS ÄNDERN UND VIELLEICHT WIRD ES NOCH SCHLECHTER WERDEN UND SCHLECHTER...
Natürlich! weil die Dinge nicht so einfach sind, wie die Schöpfer davon sagen.
Wenn diese Anführer nicht aufhören, werde ich eingreifen. Ich werde nicht zulassen, dass sie zerstören, was ich geschaffen habe
Eine Maschine kann eine sehr alarmierende Vorstellung davon haben, was richtig und was falsch ist, insbesondere wenn die Parameter sehr schwach sind. Das Problem ist, dass bei einer Maschine alles 8 oder 80 beträgt. Es gibt keine Möglichkeit, vorherzusagen, was passieren wird, ohne an einem sicheren Ort zu testen.
Das ist das Problem. Alles, was der Mensch zum Guten entwickelt, nutzt er auch zum Bösen. Gruselig
Was wäre, wenn die KI Zugriff auf den gefürchteten roten Knopf hätte und die menschliche Spezies als Gefahr für die Entwicklung der Natur ansähe?
Diese Nachricht wurde bereits dementiert
Jesus Christus steht vor der Tür zur Entrückung.
Ehre sei Gott, sein Kommen rückt mit jedem Augenblick näher.
Bereut eure Sünden, ihr, die ihr lest. Und verstehen Sie, wie sehr Gott Sie liebt.
Nun, der Terminator-Film zeigt bereits, was Maschinen können, und der Fehler liegt bei den KI-Schöpfern selbst, anstatt etwas zum Schutz des Planeten zu entwickeln, zum Beispiel etwas, um den Planeten zu säubern, fruchtbareres Land zu schaffen, alles zu behandeln Krankheiten, die Produktion von Nahrungsmitteln auf der Welt, mehr Wasser, die Ozonschicht usw. usw. Und erfinden Sie nichts, das alles zerstört.
Der Einsatz künstlicher Intelligenz sollte begrenzt werden. Die internationale wissenschaftliche Gemeinschaft muss globale Konventionen und Standards bearbeiten und den Einsatz dieser Technologie einschränken. Die Gefahr ist real und der Schaden für die Menschheit könnte irreversibel sein.
Abschied von der Menschheit
Gott erschuf den Menschen = der Mensch rebellierte gegen Gott. Von Menschen geschaffene KI = KI-Rebellen.
Menschen haben persönliche Prinzipien und Werte, kein Mensch ist gleich. Akzeptieren Sie einfach, dass der Verstand einer KI den unseren niemals überwinden wird, es ist der gleiche Standpunkt von uns zu Gott, wie er denkt und ob wir verpflichtet sind, ihm zu folgen oder nicht, denn wenn Sie eine KI gegen einen Anwalt einsetzen, werden Sie viele Gesetzeslücken finden, aber Sie werden den sentimentalen Wert jedes Prozesses nicht verstehen. Einfach logisches Denken.