Haupt Unternehmen Das Beängstigende an KI ist, dass viele Autoren sie mögen

Das Beängstigende an KI ist, dass viele Autoren sie mögen

Welcher Film Zu Sehen?
 

Der Humorist Garrison Keillor signiert große Stapel seines Buches Lake Wobegone Days in seinem Hotelzimmer. (Foto von Steve Liss/Getty Images) Getty Images



Dies ist der zweite einer zweiteiligen Geschichte von Book Post; lesen Sie den ersten Beitrag hier .








männliche Masseure in meiner Nähe

Inmitten der Ablehnung, dass ein Computer jemals einen Schriftsteller bei der Schaffung tatsächlicher literarischer Kunst ersetzen könnte, waren mehrere Interviews mit arbeitenden Schriftstellern, die bereits künstliche Intelligenz verwenden, vorläufig rosig. Jay Kaspian Kang, einschreiben Der New Yorker mit einigen Vorkenntnissen über Chatbots und einigen Expertenrat, konnte bei seinen fiktiven Streifzügen mit ChatGPT kein zufriedenstellendes literarisches Produkt erzielen, aber Kevin Roose im Podcast Harte Gabel und Bildungsautor John Warner konnten die Ergebnisse erheblich verbessern, indem sie ihre Eingaben verfeinerten. Lincoln Michel interviewte den Schriftsteller Chandler Klang Smith , der ein GPT-3-basiertes Programm namens verwendet hat Sudowrite etwa ein Jahr an ihren Romanen zu arbeiten. Sie beschrieb die Erfahrung einprägsam als „als hätte ein Roboter einen Traum von Ihrer laufenden Arbeit und Sie können entscheiden, ob irgendetwas aus diesem Traum das widerspiegelt, was Sie zu tun versuchen.“ Sie sagte, dass die Bemühungen der KI, die Arbeit voranzutreiben, „Ideen freisetzen können, die scheinen, als wären sie bereits irgendwo im Text vergraben.“ Chandler Klang Smith fand KI im Umgang mit „Makrokram wie Handlung und Struktur“ nicht hilfreich, aber bei Der Rand , die selbstveröffentlichte „Cosy Mystery“-Autorin Jennifer Lepp, die Sudowrite verwendet hatte und gerade anfing, mit ChatGPT zu experimentieren, sagte Josh Dzieza, dass sie erstaunt sei, dass sie den Chatbot mit einer Prämisse und einigen Details füttern und daraus eine effektive Geschichte machen könne das Genre. Selbstveröffentlichte Genreautoren schreiben oft für Leser, die Hunderte von Romanen pro Jahr konsumieren und unter dem Druck stehen, in großem Umfang zu produzieren (siehe unser Beitrag über Self-Publishing und Romantik). Jennifer Lepp sagte, dass viele Autoren, die sie kenne, mit den Auswirkungen ringen, wenn sie auf die Fähigkeiten von ChatGPT zurückgreifen, um den Prozess zu beschleunigen. Spielt es für diese Leser eine Rolle, wie das Gleichgewicht zwischen menschlicher und maschineller Beteiligung ist?



Unabhängig von diesen fröhlicheren Streifzügen präsentieren sich mehrere endemische Gefahren in der generativen KI. Zwei sind auf der Website von ChatGPT selbst übersichtlich zusammengefasst: Der Bot „kann gelegentlich falsche Informationen generieren“ und „kann gelegentlich schädliche Inhalte und voreingenommene Anweisungen produzieren“. ChatGPT ist ein Sprachmodell: Alles, was es tut, ist die Sprache auf der Grundlage von Mustern vorherzusagen, die es in dem sehr großen Pool identifiziert, den es aus dem Internet schöpft, und das kann es Reproduzieren Sie alle Fehler und Hässlichkeit es kann dort finden, und noch etwas Eigenes hinzufügen . (Erinnern Sie sich an den Skandal von 2020, als Google den KI-Forscher Timnet Gebru feuerte dessen Forschung identifiziert, neben anderen Einschränkungen von Modellen mit großer Sprache, die Reproduktion von Vorurteilen.) Entwurf einer EU-Gesetzgebung schafft „Risikokategorien“, die kann neue KI-Systeme kanalisieren hin zu „kostengünstigen“ Unternehmungen wie Online-Herumalbern, bevor sie „kostspielige“ Aktivitäten wie zum Beispiel Operationen aufnehmen. Doch als KI-Forscherin Chandra Bhagavatula sagte TechCrunch , „KI-Systeme treffen bereits Entscheidungen mit moralischen und ethischen Implikationen.“

Generative KI kann dazu geführt werden Trab rassistische Tropen aus und Bilder sexualisieren . KI-Rekrutierungstools Einstellungsvoreingenommenheit kodieren kann (Die Biden-Administration hat im vergangenen Herbst einen Entwurf für eine „ AI-Bill of Rights ” Schutz der Verbraucher vor diskriminierenden und räuberischen Algorithmen). GPT-3 scheint „Leitplanken“ eingeführt zu haben, die offensive Ergebnisse begrenzen, aber das sind sie anscheinend leicht zu unterlaufen , und auch für seine Meister erzeugen die Art von Moderationsproblemen alle inhaltsagnostischen Plattformen plagen. Generative KI kann natürlich auch für schändliche Zwecke eingesetzt werden – Cyberkriminalität , tiefe Fälschungen , nicht einvernehmlicher Porno . ChatGPT fordert die Benutzer auf, sich zu verpflichten, das Ergebnis nicht für politische Zwecke zu verwenden.






Eine weitere zugrunde liegende Herausforderung für großsprachige, generative KI-Systeme wie GPT-3 ist geistigen Eigentums . Alles, was ChatGPT tut, stützt sich auf die Arbeit, die zuvor von jemandem geleistet wurde, und zukünftige generative Modelle werden ständig neues Material einsaugen, um sie zu „trainieren“. Wissenschaftler sagen voraus, dass Regulierung und Urheberrechtsverfolgung ein gewisses Gleichgewicht finden müssen, indem sie erkennen, wann KI-Modelle bestimmte Künstler direkt an sich reißen und imitieren und wann die Plünderung pluralistischer ist und von „fair use“ abgedeckt wird, obwohl einige Anwälte argumentieren, dass alles Material in solche gezogen wird Modelle sollten lizenziert und Urheber entschädigt werden. Stability AI hat kürzlich angedeutet, dass es Künstlern ermöglichen würde, den Datensatz abzulehnen, der zum Trainieren des Bildgenerators Stable Diffusion verwendet wird; Getty Images verbot KI-Inhalte wegen des rechtlichen Risikos; Die Online-Galerie DeviantArt erstellte ein „Metadaten-Tag“ für Bilder, um den KI-Trawler zu warnen. Es fühlt sich an wie eine weitere Phase im digitalen Aderlass der Entlohnung von denen, die die geistige Arbeit leisten, die unser digitales Universum ausmacht. (Im Zusammenhang damit Plattenlabels haben kürzlich eine Lizenzgebührenerhöhung gefordert von TikTok für die Musik, die ihre Videos so ansteckend macht.)



Der Einsatz von Werkzeugen mit solchen Befugnissen und Versprechen, insbesondere angesichts unserer verschmutzten Bilanz, wenn es um Governance sowohl innerhalb der Technologiebranche als auch ohne Regulierung geht, macht Schriftsteller und diejenigen, die mit Sprache und Kunst arbeiten, gleichzeitig schwindelig und nervös. Ein Argument darüber, ob ChatGPT und andere Tools für große Sprachen literarische Kunst produzieren können (für: Stephan Marche , gegen: Ian Bogost , Walter Kirn ) scheint davon abzuhängen, ob Sie die redaktionelle Hand des Menschen, der der Maschine ihre Eingabeaufforderungen gibt und ihre Ergebnisse verfeinert, als hervorstechend ansehen. Amit Gupta, einer der Gründer des von Chandler Klang Smith verwendeten Programms, sagte Stephen Marche , in dem Artikel, der Chandler Klang Smiths Interesse weckte, „wird der Job des Autors fast zum Redakteur. Ihre Rolle besteht darin, zu entscheiden, was gut ist, und Ihren Geschmack umzusetzen, nicht so sehr die Arbeit auf niedriger Ebene, Wort für Wort für Wort herauszupumpen.“ Marche vergleicht KI mit Fotografie und sagt: „Im Nachhinein ist klar, dass Maschinen die Kunst nicht ersetzt haben; sie haben es nur erweitert.“

In auf einer Konferenz präsentieren letzten Herbst Googles Version von ChatGPT, die der viel größere Konzern noch nicht veröffentlicht hatte, wie die anderen großen Firmen im KI-Wettrüsten, wegen der vielen Schwächen der Modelle, insbesondere – für Google – der markenfeindlichen Tendenz, ungenau zu produzieren Ergebnisse betonte Forscher Douglas Eck ihr Modell mit dem sympathischen Namen Workshop für Wordcraft-Autoren , war auf Interaktivität ausgelegt: „Technologie sollte unserem Bedürfnis nach Entscheidungsfreiheit und kreativer Kontrolle über das, was wir tun, dienen.“ Reporter Ben Dickson kommentierte: „Ohne menschliche Kontrolle und Aufsicht werden KI-Systeme wie generative Modelle unterdurchschnittlich funktionieren, weil sie haben nicht das gleiche Verständnis für grundlegende Konzepte wie wir Menschen.“

Ein Großteil der Orientierungslosigkeit rund um ChatGPT wurde in einem zusammenhangslosen Interview mit dem weit verbreiteten Stephen Marche im Podcast sichtbar Intelligenz im Quadrat , in dem er beide behauptete, ChatGPT könne ein Gedicht schreiben, das nicht von Coleridge zu unterscheiden sei, und einen Aufsatz schreiben, den er im veröffentlichen könne atlantisch und dass es keine Möglichkeit gibt, das menschliche Schreiben zu ersetzen, dass Computer niemals in der Lage sein werden, etwas zu machen, das „viral wird“, obwohl Viralität letztendlich ein Roboterphänomen ist. Er wiederholte Amit Gupta, der sagte, dass der Nutzen von Chatbots darin bestehen wird, „erste Entwürfe“ zu erstellen, die völlig falsch sein können, die wir menschlich machen, indem wir sie korrigieren und überarbeiten. Bei der Bewertung von KI-unterstützten Studentenarbeiten „werden Sie viel mehr auf den Inhalt als auf die Klarheit des Ausdrucks achten“, obwohl der Bot „keine Arbeit produziert, die Sie sofort verwenden können“; die menschliche Kunst liegt in der Verfeinerung. Wenn ein Mensch die Fakten überprüft und das Finish poliert, was trägt der Bot genau dazu bei?

Ich kann das Argument für die Verwendung technologischer Werkzeuge verstehen, aber diese Idee, dass „Wort für Wort für Wort herauszupumpen“ oder Ideen in Form und Reihenfolge zusammenzufügen, die „niedrige Arbeit“ des Schreibens ist, ist für mich unverständlich. Die Gefahr von ChatGPT und seinen Geschwistern besteht darin, dass es vom menschlichen Produkt kaum zu unterscheiden ist und dies leicht kann, wie Timnet Gebru und ihre Kollegen erkannt , erzeugen, wenn die Werkzeuge ausgefeilter werden, „Bedeutungsillusionen“, die die Tatsache verschleiern, dass ein Sprachmodell eigentlich nichts versteht oder weiß, sondern nur Text entlehnt und Muster nachahmt. Das Erkennen der bewussten Präsenz und des Zwecks in der von Gupta und Marche beschriebenen appliquierten Autorenmethode klingt nach einem möglicherweise zunehmend schwer fassbaren Unterfangen. Casey Newton und Kevin Roose mit Unbehagen zur Kenntnis genommen in ihrem Podcast, dass ein großsprachiges Model namens Cicero gelernt hatte, wie man Leute beim Spiel Diplomatie schlägt – d. B. menschliche Spieler in einer Verhandlung überzeugen.

wie viel kostet instantcheckmate

Ich kann mir fast eine Welt vorstellen, in der eine Maschine etwas komponiert, das so viel Freude macht wie Mozart oder den Geist mit der Komplexität von Shakespeare beschäftigt. Ich nehme an, ich sollte mich der Möglichkeit dieser jetzt ungeahnten Erfahrungen nicht verschließen. Aber es fällt mir schwer, unsere historische Assoziation dieser Formen mit menschlicher Absicht zu umgehen. Wenn der Aufsatz eines Schülers nicht die Aufzeichnung eines Prozesses entwickelten Denkens ist, müssen wir dann einen anderen Weg finden, entwickeltes Denken aufzuzeichnen? Oder ist die Idee, entwickeltes Denken vollständig zu delegieren? Ich kann mir meinen Weg in eine Welt nicht ganz vorstellen, in der intellektuelles Streben nicht mehr als das Mahlgut der Dinge erkennbar ist, die wir herstellen und bewundern, die Arbeit, den Druck des Unbekannten zu überwinden, die Anstrengung, eine unvollständige oder beschädigte Welt zu verbessern , weil alles hergestellt werden kann, ohne es zu versuchen, indem man das, was zuvor hergestellt wurde, zurückholt und zusammenfügt. Aber vielleicht weiß ich einfach nicht, was ich verpasse.

Artikel, Die Sie Mögen :