Haupt Geschäft Dario Amodei, CEO von Anthropic, spricht über konstitutionelle KI

Dario Amodei, CEO von Anthropic, spricht über konstitutionelle KI

Welcher Film Zu Sehen?
 
  Wall-E
Ist es möglich, Robotern menschliche Werte beizubringen? Jason Leung/Unsplash

Ende 2020 beschloss Dario Amodei, seine Rolle als Ingenieur bei OpenAI aufzugeben. Er wollte sein eigenes Unternehmen gründen, mit dem Ziel, KI aufzubauen. Systeme, die nicht nur leistungsstark und intelligent sind, sondern auch auf menschliche Werte ausgerichtet sind. Amodei, der die Entwicklung von GPT-2 und GPT-3 leitete, den Vorläufern des großen Sprachmodells, das heute ChatGPT antreibt, war der Ansicht, dass die jüngsten Durchbrüche bei der Rechenleistung und den Trainingstechniken die KI nicht zum Erfolg führen würden. Systeme sicherer. Um dies zu erreichen, hielt er eine andere Methode für erforderlich.



In nur zwei Jahren sammelte Amodeis Unternehmen Anthropic 1,5 Milliarden US-Dollar an Finanzmitteln, und das ist zuletzt der Fall im Wert von 4 Milliarden US-Dollar und gehört damit zu den höchstbewertete K.I. Startups in der Welt. Sein Hauptprodukt ist Claude, eine ChatGPT-ähnliche KI. Chatbot im Januar veröffentlicht. Anfang dieses Monats veröffentlichte Anthropic Claude 2, eine neuere Version, die sich durch längere Antworten und differenziertere Argumente auszeichnet.








Rick und Morty Staffelfinale Review

Warum wir sichere KI brauchen Modelle

Amodei mag die Analogie von Raketen, wenn er Fortschritte bei Sprachmodellen diskutiert: Daten und Rechenleistung sind der Treibstoff und der Motor, und das Sicherheitsproblem ist wie die Steuerung eines Raumschiffs. Ein starker Motor und viel Treibstoff können ein großes Raumschiff in den Weltraum befördern, aber sie tragen kaum dazu bei, das Schiff in die richtige Richtung zu lenken. Die gleiche Logik gilt für das Training von KI. Systeme.



„Wenn Sie ein Modell aus einem großen Textkorpus trainieren, erhalten Sie das, was Sie als dieses sehr intelligente, sehr sachkundige Ding bezeichnen könnten, das formlos ist, das keine bestimmte Sicht auf die Welt hat und keine besonderen Gründe hat, warum es stattdessen etwas sagen sollte ein weiterer“, sagte Amodei gestern (13. Juli) während eines Kamingesprächs beim Atlantic's Progress Summit in Chicago.

Mit K.I. Systeme, die menschliche Werte verstehen, werden immer wichtiger, da die Risiken der Technologie mit ihren Fähigkeiten wachsen.






wann kam rambo raus

Entwickler und Benutzer von ChatGPT und ähnlichen Tools sind bereits besorgt über die Fähigkeit von Chatbots, manchmal sachlich ungenaue oder schändliche Antworten zu generieren. Aber in ein paar Jahren wird K.I. Systeme könnten nicht nur intelligent genug werden, um überzeugendere Falschgeschichten zu produzieren, sondern auch in der Lage sein, in ernsten Bereichen wie Wissenschaft und Biologie Dinge wiedergutzumachen.



„Wir kommen an einen Punkt, an dem die Modelle in zwei bis drei Jahren vielleicht in der Lage sein werden, in weiten Bereichen der Wissenschaft und Technik kreative Dinge zu leisten. Es könnte der Missbrauch von Biologie oder eingeschränktem Kernmaterial sein“, sagte Amodei. „Wir müssen unbedingt nach vorne schauen und uns mit diesen Risiken auseinandersetzen.“

Anthropics „Constitutional A.I.“ Methode

K.I. wird oft als „Black-Box“-Technologie beschrieben, bei der niemand genau weiß, wie sie funktioniert. Aber Anthropic versucht, KI aufzubauen. Systeme, die Menschen verstehen und kontrollieren können. Sein Ansatz ist das, was Amodei nennt verfassungsmäßige KI.

Im Gegensatz zur branchenüblichen Trainingsmethode, bei der menschliches Eingreifen erforderlich ist, um schädliche Ergebnisse von Chatbots zu identifizieren und zu kennzeichnen, um sie zu verbessern, ist die verfassungsmäßige KI so wichtig. konzentriert sich auf die Schulung von Modellen durch Selbstverbesserung. Diese Methode erfordert jedoch zu Beginn eine menschliche Aufsicht, um eine „Verfassung“ oder eine Reihe vorgeschriebener Werte für die KI zu schaffen. Modelle folgen.

Die „Verfassung“ von Anthropic besteht aus allgemein anerkannten Grundsätzen aus etablierten Dokumenten wie der Erklärung der Menschenrechte der Vereinten Nationen und den Nutzungsbedingungen verschiedener Technologieunternehmen.

Amodei beschrieb die Trainingsmethode von Anthropic wie folgt: „Wir nehmen diese Prinzipien und bitten einen Bot, alles zu tun, was er als Reaktion auf die Prinzipien tun wird.“ Dann nehmen wir eine weitere Kopie des Bots, um zu prüfen, ob die Vorgehensweise des ersten Bots mit den Prinzipien übereinstimmte. Wenn nicht, geben wir ihm ein negatives Feedback. Der Bot trainiert den Bot in dieser Schleife also so, dass er sich mehr als nur an die Prinzipien hält.“

Welche Insel besitzt Richard Branson?

„Wir glauben, dass dies sowohl eine transparentere als auch effektivere Möglichkeit ist, die Werte einer KI zu gestalten.“ System“, sagte Amodei.

Es besteht jedoch ein grundlegender Mangel der KI. Modelle sind, dass sie niemals perfekt sein werden. „Es ist ein bisschen wie Selbstfahren“, sagte Amodei. „Man kann einfach nicht garantieren, dass dieses Auto niemals einen Unfall hat. Ich hoffe, dass wir sagen können: ‚Dieses Auto verunglückt viel seltener als ein Mensch, der ein Auto fährt, und es wird mit jeder Fahrt sicherer.‘“

Artikel, Die Sie Mögen :