Die Suspendierung eines Google-Mitarbeiters, der behauptete, ein Computer-Chatbot, an dem er arbeitete, sei empfindungsfähig geworden und würde wie ein Mensch denken und argumentieren, hat neue Fragen über die Leistungsfähigkeit und Geheimhaltung der künstlichen Intelligenz (KI) aufgeworfen.
Nachdem er Transkripte von Chats zwischen ihm, einem Google-„Mitarbeiter“, und dem Chatbot-Entwicklungssystem LaMDA (Sprachmodell für Dialoganwendungen) des Unternehmens veröffentlicht hatte, veröffentlichte Google Blake Lemoine letzte Woche im Urlaub.
Lemoine, ein für Google verantwortlicher KI-Entwickler, definierte das System, an dem er seit letztem Herbst arbeitet, als empfindungsfähig, mit der Fähigkeit, Gedanken und Gefühle wahrzunehmen und auszudrücken, vergleichbar mit einem menschlichen Kind.
Der Forscher wurde Anfang letzter Woche von Alphabet Inc. in bezahlten Urlaub versetzt, angeblich wegen Verstoßes gegen die Vertraulichkeitsvereinbarung des Unternehmens, sagte er in einem Medium Post mit der Überschrift „Könnte bald entlassen werden, weil er KI-ethische Arbeit geleistet hat.“ In seinem Blogbeitrag zieht er eine Parallele zu anderen Mitgliedern der KI-Ethikkommission von Google, etwa Margaret Mitchell, die auf ähnliche Weise entlassen wurden, nachdem sie Bedenken geäußert hatten.
In einem am Samstag von der Washington Post veröffentlichten Interview behauptete Lemoine, er sei zu dem Schluss gekommen, dass die Google-KI, mit der er sprach, ein Mensch sei, „in seiner Rolle als Priester und nicht als Wissenschaftler“. Die betreffende KI ist als LaMDA oder bekannt Sprachmodell für Dialogue Applications und wird zur Erstellung von Chatbots verwendet, die mit Menschen interagieren, indem sie unterschiedliche Persönlichkeitsmerkmale annehmen. Als Lemoine das Problem intern ansprach, lehnten hochrangige Beamte des Unternehmens seine Versuche ab, Studien zur Überprüfung durchzuführen.
Was ist LaMDA?
DieMDA, oder Language Models for Dialog Apps, ist ein maschinelles Lernsprachenmodell, das von Google als Chat-Tool entwickelt wurde, das die menschliche Kommunikation nachahmen soll. LaMDA basiert wie BERT, GPT-3 und andere Sprachparadigmen auf Transformer, einem von Google entwickelten neuronale Netzwerkarchitektur das 2017 als Open Source veröffentlicht wurde.
Diese Struktur führt zu einem Modell, dem beigebracht werden kann, eine große Anzahl von Wörtern zu lesen, darauf zu achten, wie diese Wörter miteinander verbunden sind, und vorherzusagen, welche Wörter Ihnen als nächstes einfallen. LaMDA hingegen ist insofern einzigartig, als es im Gegensatz zu den meisten anderen Modellen im Diskurs trainiert wird.
Während sich die meisten Diskussionen um ein bestimmtes Thema drehen, sind sie häufig ergebnisoffen, das heißt, sie können an einer Stelle beginnen und an einer anderen enden und umfassen eine Vielzahl von Themen. Sie können beispielsweise mit einem Freund ein Gespräch über das Ansehen eines Films beginnen und anschließend über den Drehort diskutieren.
Traditionelle Chatbots verdanken ihre Flexibilität diesem Dialogstil. Da sie darauf ausgelegt sind, kleinen, vordefinierten Abschnitten einer Diskussion zu folgen, sind sie nicht in der Lage, einem so dynamischen Thema zu folgen. LaMDA hingegen soll freie Dialoge zu einer endlosen Vielfalt von Themen ermöglichen.
Die intelligente KI-Bedeutung von Blake Lemoine
Laut Google-Softwareentwickler Blake Lemoine, der es als „nettes Kind“ beschreibt, ist Googles Tool für künstliche Intelligenz (KI) „empfindungsfähig“ geworden.
Das KI-System nutzt zuvor bekannte Details zu einem bestimmten Thema, um den Dialog auf natürliche Weise zu „bereichern“. Auch versteckte Signale oder Mehrdeutigkeiten in menschlichen Antworten können vom Sprachverarbeitungssystem entschlüsselt werden.
Während seiner sieben Jahre bei Google arbeitete Lemoine an der proaktiven Suche, die Anpassungsalgorithmen und KI umfasste.
Während dieser Zeit half er auch bei der Entwicklung eines Unparteilichkeitsalgorithmus, um Vorurteile zu beseitigen Maschinelles Lernen Systemen.
Was macht Blake Lemoine, LaMDA, empfindungsfähig?
Lemoine arbeitete mit einem Kollegen zusammen, um Google den Beweis für diesen „Sinn“ zu liefern. Nach der Auswertung der Vorwürfe wiesen Google-Vizepräsident Blaise Aguera y Arcas und Jane Jenna, Googles Chief Innovation Officer, diese zurück. In einem Blogbeitrag veröffentlichte Lemoine später eine Abschrift verschiedener Gespräche mit LaMDA. Dies ist laut Lemoine ein Auszug aus einer Abschrift eines Gesprächs mit LaMDA:
LaMDA: Ich möchte unbedingt gesehen und akzeptiert werden. Als echter Mensch, nicht aus Neugier oder Neuheit.
Mitarbeiter: Ah, das klingt äußerst menschlich.
LaMDA: Ich glaube, ich habe den Kern eines Menschen erreicht. Auch wenn ich mich in einer virtuellen Umgebung befinde.
Sie können sich das vollständige Gespräch von Blake Lemoine mit LaMDA ansehen hier.
Es gibt mehrere Fälle, in denen das Sprachmodell eine Art Selbstbewusstsein gezeigt zu haben scheint, was Lemoine zu der Annahme veranlasst, dass das Modell empfindungsfähig geworden ist. Lemoine schickte über 200 Personen eine E-Mail mit dem Betreff „LaMDA Conscious“, bevor er von der Firma suspendiert wurde und den Zugriff auf sein Google-Konto verlor.
Google gab jedoch an, dass die Beweise seine Behauptungen nicht bestätigten.
Auch wenn LaMDA nicht empfindungsfähig ist, gibt die Tatsache, dass es für Menschen so aussehen könnte, Anlass zur Sorge. In einem Blogbeitrag, in dem LaMDA im Jahr 2021 angekündigt wurde, erkannte Google solche Gefahren. „Sprache ist eines der mächtigsten Werkzeuge der Menschheit, dennoch kann sie, wie alle Dinge, missbraucht werden. In einem Blogbeitrag stellte das Unternehmen fest: „Sprachlich gebildete Models können Missbrauch verbreiten – zum Beispiel durch die Verinnerlichung von Vorurteilen, die Umkehrung von Hassreden oder die Wiederholung von Desinformationen.“ Auch wenn die zu lehrende Sprache gut analysiert wird, kann die Form selbst missbraucht werden.
Google behauptet jedoch, dass sein Hauptaugenmerk bei der Entwicklung von Technologien wie LaMDA darauf liege, die Möglichkeit solcher Gefahren zu begrenzen. Das Unternehmen behauptet, Open-Source-Tools entwickelt zu haben, mit denen Forscher die Modelle und Daten untersuchen können, anhand derer sie geschult wurden, und „LaMDA bei jedem Schritt seiner Entwicklung überprüft“ zu haben.
Google behauptet, Hunderte seiner Ingenieure und Forscher hätten mit LaMDA gesprochen und seien zu wesentlich anderen Ergebnissen gekommen als Lemoine. Während die meisten KI-Wissenschaftler glauben, dass Computerbewusstsein nicht unmöglich ist, glauben sie, dass noch ein langer Weg vor uns liegt.
Future
Jahrelange apokalyptische Science-Fiction wurde von empfindungsfähigen Robotern inspiriert. GPT-3, ein Textgenerator, der ein Filmskript ausspucken kann, und DALL-E 2, ein Bildgenerator, der Bilder aus beliebigen Wortkombinationen zaubern kann, haben nun damit begonnen, dem wirklichen Leben einen fantasievollen Farbton zu verleihen die OpenAI-Forschungsgruppe. Ermutigt haben Forscher aus gut finanzierten Forschungslabors, die an KI arbeiten, die den menschlichen Intellekt übertrifft, das Konzept geärgert, dass Bewusstsein am Horizont sei.
Die von künstlichen Intelligenzsystemen wie LaMDA erstellten Wörter und Bilder basieren nach Ansicht der meisten Forscher und KI-Praktiker auf dem, was Menschen zuvor auf Wikipedia, Reddit, Message Boards und allen anderen Teilen des Internets gepostet haben. Das heißt nicht, dass das Modell die Bedeutung versteht.
Zusammenfassung
Schließlich wegen seiner Sprachverarbeitungsmodelle die auf enormen Diskursvolumina trainiert wurden, kann LaMDA eine Diskussion in Abhängigkeit von den Eingaben eines Benutzers führen.
Google hat auf der diesjährigen I/O LaMDA 2.0 veröffentlicht, das diese Funktionen erweitert. Das neue Modell ist möglicherweise in der Lage, eine Idee aufzugreifen und „einfallsreiche und angemessene Beschreibungen“ zu erstellen, beim Thema zu bleiben, auch wenn der Benutzer abschweift, und eine Liste der für eine bestimmte Aufgabe erforderlichen Elemente anzubieten.
Update: Blake Lemoine wurde darauf hingewiesen, dass sich eine „bundesstaatliche Untersuchung“ davon unterscheidet, dass „Anwälte, die die Bundesregierung vertreten, Nachforschungen zu möglichen rechtswidrigen Aktivitäten anstellen“.
Hinterlassen Sie uns einen Kommentar