Haupt Innovation Stephen Hawking, Elon Musk und Bill Gates warnen vor künstlicher Intelligenz

Stephen Hawking, Elon Musk und Bill Gates warnen vor künstlicher Intelligenz

Welcher Film Zu Sehen?
 
Stephen Hawking, Elon Musk und Bill Gates. (Foto: Getty Images)



Einige der beliebtesten Science-Fiction-Filme— 2001: Odyssee im Weltraum, Terminator, Matrix, Transzendenz, Ex Machina , und viele andere – basieren auf der Vorstellung, dass sich die künstliche Intelligenz bis zu einem Punkt entwickeln wird, an dem die Menschheit nicht mehr in der Lage sein wird, ihre eigenen Schöpfungen zu kontrollieren, was zum Untergang unserer gesamten Zivilisation führt. Diese Angst vor einem schnellen Technologiewachstum und unserer zunehmenden Abhängigkeit davon ist angesichts der Fähigkeiten aktueller Maschinen, die für militärische Zwecke gebaut wurden, sicherlich berechtigt.

Bereits seit Beginn des Irakkriegs 2001 hat die Technologie die Kriegsführung maßgeblich beeinflusst. Unbemannte Drohnen sorgen für nachhaltige Überwachung und schnelle Angriffe auf Ziele, und kleine Roboter werden zur Entwaffnung improvisierter Sprengkörper eingesetzt. Das Militär ist derzeit Finanzierung forschen, um mehr zu produzieren autonome und selbstbewusste Roboter um die Notwendigkeit zu verringern, dass menschliche Soldaten ihr Leben riskieren. Der Gründer von Boston Dynamics, Marc Raiber, hat ein Video veröffentlicht, das einen furchterregenden 1,80 Meter großen, 320 Pfund schweren Mann zeigt. humanoider Roboter namens Atlas, der frei im Wald läuft. Das Unternehmen, das von Google gekauft im Jahr 2013 und erhält Fördergelder des Verteidigungsministeriums, arbeitet an der Entwicklung einer noch agileren Version.

[protected-iframe id=f3ad9cb5d88743d09a7e6c45b1a9b09b-35584880-78363900″ info=https://www.youtube.com/embed/NwrjAa1SgjQ width=560″ height=315″ frameborder=0″ allowfullscreen=]

Die inhärenten Gefahren einer so leistungsstarken Technologie haben mehrere führende Vertreter der wissenschaftlichen Gemeinschaft dazu inspiriert, Bedenken hinsichtlich der künstlichen Intelligenz zu äußern.

Der Erfolg bei der Entwicklung von KI wäre das größte Ereignis in der Geschichte der Menschheit, schrieb Stephen Hawking in einem Kommentar, der erschien im Der Unabhängige im Jahr 2014. Leider könnte es auch das letzte sein, es sei denn, wir lernen, die Risiken zu vermeiden. Kurzfristig erwägen die Militärs der Welt autonome Waffensysteme, die Ziele auswählen und eliminieren können. Professor Hawking hinzugefügt in einem 2014 Interview mit BBC , Menschen, die durch die langsame biologische Evolution eingeschränkt sind, könnten nicht konkurrieren und würden von KI abgelöst.

Die von Herrn Hawking beschriebene Technologie hat bereits in verschiedenen Formen begonnen, angefangen bei US-Wissenschaftlern Verwenden von Computern zur Eingabe von Algorithmen Vorhersage der militärischen Strategien islamischer Extremisten an Unternehmen wie Boston Dynamics, die gebaut haben erfolgreich mobile Roboter , die jeden von ihnen erstellten Prototyp stetig verbessern.

Herr Hawking hat sich vor kurzem zusammen mit Elon Musk, Steve Wozniak und Hunderten anderen in einem Brief veröffentlicht, der letzten Monat auf der Internationalen Gemeinsamen Konferenz in Buenos Aires, Argentinien, vorgestellt wurde. Der Brief warnt davor, dass künstliche Intelligenz potenziell gefährlicher sein kann als Atomwaffen.

Das ethische Dilemma, Robotern moralische Verantwortung zu übertragen, erfordert rigorose Sicherheits- und Präventivmaßnahmen, die ausfallsicher sind, oder die Bedrohungen sind zu groß, um sie zu riskieren.

Elon Musk bezeichnete die Aussicht auf künstliche Intelligenz 2014 als unsere größte existenzielle Bedrohung Interview mit MIT-Studenten beim AeroAstro Centennial Symposium. Ich neige immer mehr dazu, zu denken, dass es eine gewisse Regulierungsaufsicht geben sollte, vielleicht auf nationaler und internationaler Ebene, nur um sicherzustellen, dass wir nichts sehr Dummes tun. Herr Musk nennt seine Entscheidung, in das Unternehmen für künstliche Intelligenz DeepMind zu investieren, als meint um einfach im Auge zu behalten, was mit künstlicher Intelligenz passiert. Ich denke, es gibt möglicherweise ein gefährliches Ergebnis.

Auch Microsoft-Mitbegründer Bill Gates äußerte Bedenken hinsichtlich Künstlicher Intelligenz. Während einer Q&A-Sitzung auf Reddit Im Januar 2015 sagte Mr. Gates, ich bin im Lager, das sich Sorgen um Supergeheimnisse macht. Erstens werden die Maschinen viele Aufgaben für uns erledigen und nicht superintelligent sein. Das sollte positiv sein, wenn wir es gut managen. Ein paar Jahrzehnte später ist die Intelligenz jedoch stark genug, um Anlass zur Sorge zu geben. Ich stimme Elon Musk und einigen anderen darin zu und verstehe nicht, warum manche Leute nicht besorgt sind.

Die von Hawking, Musk und Gates aufgezählten Bedrohungen sind real und verdienen unsere sofortige Aufmerksamkeit, trotz der immensen Vorteile, die künstliche Intelligenz der Menschheit potenziell bringen kann. Da die Robotertechnologie stetig zunimmt, um eine breite Implementierung zu ermöglichen, wird deutlich, dass sich Roboter in Situationen befinden werden, die eine Reihe von Handlungsoptionen bieten. Das ethische Dilemma, Robotern moralische Verantwortung zu übertragen, erfordert rigorose Sicherheits- und Präventivmaßnahmen, die ausfallsicher sind, oder die Bedrohungen sind zu groß, um sie zu riskieren.

Artikel, Die Sie Mögen :