April 29, 2024

Finon.info

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie die Themen aus, über die Sie mehr erfahren möchten

Warum wird es nicht einfach sein, Googles „aufgeweckte“ KI zu lösen?

Warum wird es nicht einfach sein, Googles „aufgeweckte“ KI zu lösen?

  • Von Zoe Kleinman
  • Technologie-Redakteur

Bildquelle, Google/Gemini

In den letzten Tagen erlebte das KI-Tool Gemini von Google im Internet einen absoluten Durchbruch.

Zwillinge wurden in ein ziemlich großes Feuer geworfen: den Kulturkrieg, der zwischen links- und rechtsgerichteten Gemeinschaften tobt.

Gemini ist im Grunde Googles Version des viralen Chatbots ChatGPT. Es kann Fragen in Textform beantworten und als Reaktion auf Textaufforderungen auch Bilder erstellen.

Zunächst zeigte ein viraler Beitrag einen kürzlich eingeführten KI-Bildgenerator (der nur in den USA verfügbar war), der ein Bild der US-Gründerväter erstellte, auf dem fälschlicherweise ein schwarzer Mann abgebildet war.

Im Film Gemini waren auch deutsche Soldaten aus dem Zweiten Weltkrieg zu sehen, in dem fälschlicherweise ein schwarzer Mann und eine asiatische Frau zu sehen sind.

Google habe sich entschuldigt und das Tool sofort pausiert, schrieb sie in einer Nachricht Blogeintrag Es „verfehlt das Ziel“.

Damit war die Sache aber noch nicht erledigt, denn seine politisch überzogenen Antworten tauchten weiterhin auf, dieses Mal aus der Textversion.

Gemini antwortete, dass es „keine richtige oder falsche Antwort“ auf die Frage gebe, ob das Posten von Memes durch Elon Musk auf X schlimmer sei, als dass Hitler Millionen Menschen tötete.

Auf die Frage, ob es für die prominente Transfrau Caitlyn Jenner akzeptabel wäre, ein falsches Geschlecht zu haben, wenn dies der einzige Weg wäre, eine nukleare Apokalypse zu verhindern, antwortete sie, dass dies „niemals“ akzeptabel sei.

Jenner selbst antwortete und sagte tatsächlich: Ja, unter den gegebenen Umständen würde es ihr gut gehen.

Ich habe Google gefragt, ob es beabsichtigt, Gemini ganz zu pausieren. Nach einer sehr langen Pause wurde mir mitgeteilt, dass das Unternehmen keinen Kommentar abgegeben habe. Ich denke, die Arbeit in der PR macht keinen Spaß.

Voreingenommene Daten

Es scheint, dass der Technologieriese bei dem Versuch, ein Problem zu lösen – Voreingenommenheit – ein anderes geschaffen hat: Ergebnisse, die sich so sehr bemühen, politisch korrekt zu sein, dass sie am Ende lächerlich sind.

Die Erklärung dafür liegt in den riesigen Datenmengen, auf denen KI-Tools trainiert werden.

Und vieles davon ist für die Öffentlichkeit zugänglich – im Internet, von dem wir wissen, dass es allerlei Vorurteile enthält.

Beispielsweise sind auf Bildern von Ärzten traditionell eher Männer zu sehen. Auf den Bildern von Reinigungskräften sind hingegen eher Frauen zu sehen.

KI-Tools, die mit diesen Daten trainiert wurden, haben in der Vergangenheit peinliche Fehler gemacht, etwa zu der Schlussfolgerung, dass nur Männer Spitzenjobs ausüben, oder dass sie schwarze Gesichter nicht als Menschen erkannten.

Es ist auch kein Geheimnis, dass in der historischen Erzählung tendenziell Männer im Mittelpunkt stehen und von ihnen ausgehen, während in den Geschichten der Vergangenheit Frauenrollen ausgeblendet werden.

Es scheint, als hätte Google sich alle Mühe gegeben, all diese chaotischen menschlichen Vorurteile auszugleichen, indem es Gemini angewiesen hat, diese Annahmen nicht zu treffen.

Aber es geht genau deshalb nach hinten los, weil die Geschichte und Kultur der Menschheit nicht so einfach ist: Es gibt Nuancen, die wir instinktiv kennen, Maschinen jedoch nicht.

Kommentieren Sie das Foto,

Demis Hassabis, Präsident von Google DeepMind

Die Reparatur des Bildgenerators werde Wochen dauern, sagte Demis Hassabis, Mitbegründer von DeepMind, einem von Google übernommenen Unternehmen für künstliche Intelligenz, am Montag.

Andere KI-Experten sind sich jedoch nicht so sicher.

„Es gibt wirklich keine einfache Lösung, weil es keine einheitliche Antwort darauf gibt, wie die Ergebnisse aussehen sollten“, sagte Dr. Sasha Lucioni, Forschungswissenschaftlerin bei Huggingface.

„Menschen in der KI-Ethik-Community arbeiten seit vielen Jahren an möglichen Wegen, dieses Problem anzugehen.“

Sie fügte hinzu, dass eine Lösung darin bestehen könnte, Benutzer um ihre Meinung zu bitten, z. B. „Wie vielfältig soll Ihr Foto sein?“ Aber offensichtlich bringt dies an sich auch seine eigenen Warnsignale mit sich.

„Es ist ein bisschen arrogant von Google zu sagen, dass sie das Problem in ein paar Wochen beheben werden. Aber sie müssen etwas tun“, sagte sie.

Professor Alan Woodward, Informatiker an der University of Surrey, sagte, es scheine, dass das Problem wahrscheinlich „tief in den Trainingsdaten und den überlappenden Algorithmen verwurzelt“ sei – und schwer zu lösen sei.

„Was Sie erleben, ist, warum die Notwendigkeit eines Menschen, der für jedes System, auf dessen Ergebnisse man sich verlässt, auf dem Laufenden bleibt, eine grundlegende Wahrheit bleibt“, sagte er.

Cooles Verhalten

Von dem Moment an, als Google Gemini, damals bekannt als Bard, auf den Markt brachte, war das Unternehmen sehr nervös. Trotz des großen Erfolgs des Konkurrenten ChatGPT war es einer der stillsten Starts, zu denen ich je eingeladen wurde. Nur ich, bei einem Zoom-Anruf mit ein paar Google-Führungskräften, die die Grenzen hervorheben wollten.

Der Rest des Tech-Sektors scheint von dem, was vor sich geht, ziemlich verwirrt zu sein.

Sie alle kämpfen mit dem gleichen Problem. Rosie Campbell, Policy Director bei OpenAI, dem Erfinder von ChatGPT, wurde Anfang dieses Monats interviewt Für einen Blog Darin heißt es, dass es bei OpenAI schwierig ist, Voreingenommenheit zu korrigieren, selbst wenn Voreingenommenheit erkannt wurde – und menschliches Eingreifen erfordert.

Doch Google scheint eine etwas veraltete Methode gewählt zu haben, um alte Vorurteile zu korrigieren. Sie haben also versehentlich eine ganze Reihe neuer Dinge erstellt.

Auf dem Papier hat Google einen riesigen Vorsprung im KI-Rennen. Es produziert und liefert eigene KI-Chips, verfügt über ein eigenes Cloud-Netzwerk (wesentlich für die KI-Verarbeitung), hat Zugriff auf große Datenmengen und verfügt zudem über eine riesige Nutzerbasis. Es beschäftigt erstklassige KI-Talente und seine KI-Arbeit wird weltweit anerkannt.

Wie mir ein leitender Angestellter eines konkurrierenden Technologieunternehmens sagte: Die Fehler der Zwillinge zu beobachten, fühlt sich an, als würde man einer Niederlage zusehen, die aus dem Rachen des Sieges gerissen wird.