Inhaltsverzeichnis[Ausblenden][Zeigen]
Wie stellen wir sicher, dass wir KI verantwortungsvoll einsetzen?
Fortschritte beim maschinellen Lernen zeigen, dass Modelle schnell skalieren und einen großen Teil der Gesellschaft beeinflussen können.
Algorithmen steuern den Newsfeed auf allen Handys. Regierungen und Unternehmen beginnen, KI einzusetzen, um datengestützte Entscheidungen zu treffen.
Wie können wir sicherstellen, dass die KI fair handelt, während die KI immer mehr in die Funktionsweise der Welt eindringt?
In diesem Artikel werden wir uns mit den ethischen Herausforderungen beim Einsatz von KI befassen und sehen, was wir tun können, um einen verantwortungsvollen Umgang mit KI sicherzustellen.
Was ist ethische KI?
Ethische KI bezieht sich auf künstliche Intelligenz, die sich an bestimmte ethische Richtlinien hält.
Mit anderen Worten, es ist eine Möglichkeit für Einzelpersonen und Organisationen, auf verantwortungsvolle Weise mit KI zu arbeiten.
In den letzten Jahren haben Unternehmen begonnen, sich an Datenschutzgesetze zu halten, nachdem Beweise für Missbrauch und Verstöße ans Licht kamen. Ebenso werden Richtlinien für ethische KI empfohlen, um sicherzustellen, dass sich KI nicht negativ auf die Gesellschaft auswirkt.
Einige Arten von KI arbeiten beispielsweise voreingenommen oder perpetuieren bereits bestehende Vorurteile. Betrachten wir einen Algorithmus, der Personalvermittlern dabei hilft, Tausende von Lebensläufen zu sortieren. Wenn der Algorithmus auf einem Datensatz mit überwiegend männlichen oder weißen Mitarbeitern trainiert wird, ist es möglich, dass der Algorithmus Bewerber bevorzugt, die in diese Kategorien fallen.
Grundsätze für ethische KI aufstellen
Wir haben darüber nachgedacht, eine Reihe von Regeln aufzustellen, die wir durchsetzen können künstliche Intelligenz für Jahrzehnte.
Selbst in den 1940er Jahren, als die leistungsfähigsten Computer nur die spezialisiertesten wissenschaftlichen Berechnungen durchführen konnten, haben Science-Fiction-Autoren über die Idee nachgedacht, intelligente Roboter zu steuern.
Isaac Asimov prägte bekanntermaßen die Drei Gesetze der Robotik, die er als Sicherheitsmerkmal in die Programmierung von Robotern in seinen Kurzgeschichten einbettete.
Diese Gesetze sind zu einem Prüfstein für viele zukünftige Science-Fiction-Geschichten geworden und haben sogar aktuelle Studien zur Ethik der KI beeinflusst.
In der zeitgenössischen Forschung suchen KI-Forscher nach fundierteren Quellen, um eine Liste von Prinzipien für ethische KI zu erstellen.
Da KI letztendlich das Leben von Menschen beeinflussen wird, müssen wir ein grundlegendes Verständnis dafür haben, was wir tun sollten und was nicht.
Der Belmont-Bericht
Als Bezugspunkt sehen sich Ethikforscher den Belmont-Bericht als Leitfaden an. Das Belmont Bericht war ein Dokument, das 1979 von den US National Institutes of Health veröffentlicht wurde. Biomedizinische Gräueltaten im Zweiten Weltkrieg führten zu einem Vorstoß, ethische Richtlinien für medizinisch praktizierende Forscher zu erlassen.
Hier sind die drei Grundprinzipien, die im Bericht erwähnt werden:
- Respekt vor Personen
- Wohltätigkeit
- Justiz
Das erste Prinzip zielt darauf ab, die Würde und Autonomie aller menschlichen Subjekte zu wahren. Beispielsweise sollten Forscher möglichst wenig Teilnehmer täuschen und von jeder Person ihre ausdrückliche Zustimmung verlangen.
Das zweite Prinzip, Wohltätigkeit, konzentriert sich auf die Pflicht des Forschers, potenziellen Schaden für die Teilnehmer zu minimieren. Dieses Prinzip verpflichtet die Forscher, das Verhältnis von individuellen Risiken zu möglichen gesellschaftlichen Vorteilen abzuwägen.
Gerechtigkeit, das letzte Prinzip des Belmont-Berichts, konzentriert sich auf die gleichmäßige Verteilung von Risiken und Vorteilen zwischen Gruppen, die von der Forschung profitieren könnten. Forscher haben die Pflicht, Forschungsthemen aus der breiten Bevölkerung auszuwählen. Dies würde individuelle und systemische Vorurteile minimieren, die sich negativ auf die Gesellschaft auswirken könnten.
Ethik in der KI-Forschung platzieren
Während der Belmont-Bericht in erster Linie auf die Forschung am Menschen abzielte, waren die Prinzipien weit genug gefasst, um sie auf den Bereich der KI-Ethik anzuwenden.
Big Data ist zu einer wertvollen Ressource im Bereich der künstlichen Intelligenz geworden. Die Prozesse, die bestimmen, wie Forscher Daten sammeln, sollten ethischen Richtlinien folgen.
Die Umsetzung von Datenschutzgesetzen in den meisten Ländern begrenzt in gewisser Weise, welche Daten Unternehmen sammeln und verwenden können. Die Mehrheit der Nationen verfügt jedoch immer noch über ein rudimentäres Paket von Gesetzen, um den Einsatz von KI zum Verursachen von Schaden zu verhindern.
Wie man ethisch mit KI arbeitet
Hier sind einige Schlüsselkonzepte, die dazu beitragen können, auf einen ethischeren und verantwortungsbewussteren Einsatz von KI hinzuarbeiten.
Kontrolle für Bias
Künstliche Intelligenz ist nicht von Natur aus neutral. Algorithmen sind immer anfällig für eingefügte Voreingenommenheit und Diskriminierung, da die Daten, aus denen sie lernen, Voreingenommenheit enthalten.
Ein gängiges Beispiel für diskriminierende KI ist die Art, die häufig in Gesichtserkennungssystemen vorkommt. Diese Modelle sind oft erfolgreich darin, weiße männliche Gesichter zu identifizieren, sind jedoch weniger erfolgreich darin, Menschen mit dunklerer Haut zu erkennen.
Ein weiteres Beispiel erscheint in OpenAIs DALL-E 2. Benutzer haben entdeckt dass bestimmte Eingabeaufforderungen häufig geschlechtsspezifische und rassistische Vorurteile reproduzieren, die das Modell aus seinem Datensatz von Online-Bildern aufgegriffen hat.
Wenn zum Beispiel nach Bildern von Anwälten gefragt wird, gibt DALL-E 2 Bilder von männlichen Anwälten zurück. Auf der anderen Seite liefert die Anfrage nach Bildern von Flugbegleitern hauptsächlich weibliche Flugbegleiter.
Auch wenn es unmöglich sein kann, Vorurteile vollständig aus KI-Systemen zu entfernen, können wir Maßnahmen ergreifen, um ihre Auswirkungen zu minimieren. Forscher und Ingenieure können eine bessere Kontrolle über Verzerrungen erreichen, indem sie die Trainingsdaten verstehen und ein vielfältiges Team einstellen, das Input dazu gibt, wie das KI-System funktionieren sollte.
Human-Centered-Design-Ansatz
Algorithmen in Ihrer Lieblings-App können Sie negativ beeinflussen.
Plattformen wie Facebook und TikTok können lernen, welche Inhalte bereitgestellt werden müssen, um Benutzer auf ihren Plattformen zu halten.
Auch ohne die Absicht, Schaden anzurichten, könnte das Ziel, Benutzer so lange wie möglich an ihre App zu binden, zu psychischen Problemen führen. Der Begriff „Doomscrolling“ erfreut sich zunehmender Beliebtheit als Sammelbegriff dafür, übermäßig viel Zeit damit zu verbringen, negative Nachrichten auf Plattformen wie Twitter und Facebook zu lesen.
In anderen Fällen erhalten hasserfüllte Inhalte und Fehlinformationen eine breitere Plattform, weil sie dazu beitragen, die Benutzerbindung zu erhöhen. EIN 2021 Studie von Forschern der New York University zeigt, dass Beiträge aus Quellen, die für Fehlinformationen bekannt sind, sechsmal mehr Likes erhalten als seriöse Nachrichtenquellen.
Diesen Algorithmen fehlt ein auf den Menschen ausgerichteter Designansatz. Ingenieure, die entwerfen, wie eine KI eine Aktion ausführt, müssen immer die Benutzererfahrung im Auge behalten.
Forscher und Ingenieure müssen sich immer die Frage stellen: "Welchen Nutzen bringt das dem Anwender?"
Die meisten KI-Modelle folgen einem Black-Box-Modell. Eine Blackbox drin Maschinelles Lernen bezieht sich auf eine KI, bei der kein Mensch erklären kann, warum die KI zu einem bestimmten Ergebnis gelangt ist.
Black Boxes sind problematisch, weil sie das Vertrauen, das wir in Maschinen setzen können, verringern.
Stellen wir uns zum Beispiel ein Szenario vor, in dem Facebook einen Algorithmus veröffentlicht, der Regierungen dabei hilft, Kriminelle aufzuspüren. Wenn das KI-System Sie markiert, kann niemand erklären, warum es diese Entscheidung getroffen hat. Diese Art von System sollte nicht der einzige Grund sein, warum Sie verhaftet werden sollten.
Explainable AI oder XAI sollten eine Liste von Faktoren zurückgeben, die zum Endergebnis beigetragen haben. Zurück zu unserem hypothetischen Verbrecher-Tracker: Wir können das KI-System optimieren, um eine Liste von Posts mit verdächtiger Sprache oder Begriffen zurückzugeben. Von dort aus kann ein Mensch überprüfen, ob es sich lohnt, den markierten Benutzer zu untersuchen oder nicht.
XAI sorgt für mehr Transparenz und Vertrauen in KI-Systeme und kann Menschen helfen, bessere Entscheidungen zu treffen.
Zusammenfassung
Wie alle von Menschen gemachten Erfindungen ist künstliche Intelligenz nicht per se gut oder schlecht. Es kommt darauf an, wie wir KI einsetzen.
Das Einzigartige an künstlicher Intelligenz ist die Geschwindigkeit, mit der sie wächst. In den letzten fünf Jahren haben wir jeden Tag neue und aufregende Entdeckungen im Bereich des maschinellen Lernens gesehen.
Allerdings ist das Gesetz nicht so schnell. Da Unternehmen und Regierungen KI weiterhin nutzen, um Gewinne zu maximieren oder die Kontrolle über Bürger zu übernehmen, müssen wir Wege finden, um auf Transparenz und Gerechtigkeit bei der Verwendung dieser Algorithmen zu drängen.
Glauben Sie, dass wirklich ethische KI möglich ist?
Hinterlassen Sie uns einen Kommentar