banner

Nachricht

Nov 30, 2023

Künstliche allgemeine Intelligenz steht nicht so unmittelbar bevor, wie Sie vielleicht denken

Für den Durchschnittsmenschen muss es so aussehen, als ob das Gebiet der künstlichen Intelligenz enorme Fortschritte macht. Laut einigen überschwänglicheren Medienberichten und Pressemitteilungen kann DALL-E 2 von OpenAI scheinbar spektakuläre Bilder aus jedem Text erzeugen; ein anderes OpenAI-System namens GPT-3 kann über fast alles sprechen – und sogar über sich selbst schreiben; und ein System namens Gato, das im Mai von DeepMind, einem Geschäftsbereich von Alphabet, veröffentlicht wurde, funktionierte Berichten zufolge bei jeder Aufgabe, die das Unternehmen ihm stellen konnte, gut. Einer der hochrangigen Führungskräfte von DeepMind ging sogar so weit, damit zu prahlen, dass bei der Suche nach einer KI, die die Flexibilität und den Einfallsreichtum menschlicher Intelligenz besitzt – bekannt als künstliche allgemeine Intelligenz oder AGI – „das Spiel vorbei ist.“

Lass dich nicht täuschen. Maschinen mögen eines Tages so schlau sein wie Menschen und vielleicht sogar noch schlauer, aber das Spiel ist noch lange nicht vorbei. Es gibt noch viel zu tun, um Maschinen zu schaffen, die die Welt um sie herum wirklich verstehen und darüber nachdenken können. Was wir jetzt brauchen, ist weniger Gehabe und mehr Grundlagenforschung.

KI macht Fortschritte – synthetische Bilder sehen immer realistischer aus und Spracherkennung kann oft in lauten Umgebungen funktionieren –, aber wir sind wahrscheinlich noch Jahrzehnte von einer universellen KI auf menschlicher Ebene entfernt, die die wahre Bedeutung von Artikeln und Videos verstehen kann mit unerwarteten Hindernissen und Unterbrechungen umgehen. Das Fachgebiet steht vor genau den gleichen Herausforderungen, auf die akademische Wissenschaftler (mich eingeschlossen) seit Jahren hinweisen: die Zuverlässigkeit der KI zu gewährleisten und sie in die Lage zu versetzen, mit ungewöhnlichen Umständen zurechtzukommen.

Nehmen Sie den kürzlich gefeierten Gato, einen angeblichen Alleskönner, und wie er ein Bild eines Pitchers, der einen Baseball schleudert, mit einer Bildunterschrift versehen hat (oben). Die drei wichtigsten Vermutungen des Systems waren:

Ein Baseballspieler wirft einen Ball auf ein Baseballfeld. Ein Mann wirft einen Baseball auf einen Werfer auf einem Baseballfeld. Ein Baseballspieler am Schläger und ein Fänger im Dreck während eines Baseballspiels.

Die erste Antwort ist richtig, aber die anderen beiden Antworten beinhalten Halluzinationen anderer Spieler, die nicht auf dem Bild zu sehen sind. Das System hat keine Ahnung, was tatsächlich auf dem Bild zu sehen ist, abgesehen von den groben Näherungen, die es aus statistischen Ähnlichkeiten mit anderen Bildern zieht. Jeder Baseballfan würde erkennen, dass es sich hier um einen Werfer handelt, der den Ball gerade erst geworfen hat, und nicht umgekehrt. Und obwohl wir erwarten, dass ein Fänger und ein Batter in der Nähe sind, erscheinen sie offensichtlich nicht auf dem Bild.

Ebenso konnte DALL-E 2 den Unterschied zwischen einem Bild eines roten Würfels auf einem blauen Würfel und einem Bild eines blauen Würfels auf einem roten Würfel nicht erkennen. Ein neueres System, das im vergangenen Mai veröffentlicht wurde, konnte keinen Unterschied zwischen einem Astronauten auf einem Pferd und einem Pferd auf einem Astronauten erkennen.

Wenn Bilderzeugungssysteme wie DALL-E 2 Fehler machen, kann das Ergebnis amüsant sein. Aber manchmal haben durch KI verursachte Fehler schwerwiegende Folgen. Kürzlich fuhr ein Tesla mit Autopilot direkt auf einen menschlichen Arbeiter zu, der mitten auf der Straße ein Stoppschild trug, und bremste erst ab, als der menschliche Fahrer eingriff. Das System konnte Menschen selbst erkennen (so wie sie in den Trainingsdaten erschienen) und Stoppschilder an ihren üblichen Standorten erkennen (wie sie in den Trainingsbildern erschienen), verlangsamte jedoch nicht die Geschwindigkeit, als es mit der ungewohnten Kombination der beiden konfrontiert wurde. wodurch das Stoppschild an eine neue und ungewöhnliche Position gebracht wurde.

Dass diese Systeme immer noch nicht zuverlässig funktionieren und mit neuartigen Umständen zu kämpfen haben, verbirgt sich leider meist im Kleingedruckten. Gato beispielsweise hat bei allen von DeepMind gemeldeten Aufgaben gut funktioniert, jedoch nur selten so gut wie andere moderne Systeme. GPT-3 schafft oft fließende Prosa, hat aber Schwierigkeiten mit der Grundrechenart und hat so wenig Bezug zur Realität, dass es dazu neigt, Sätze wie „Einige Experten glauben, dass das Essen einer Socke dem Gehirn hilft, aus seinem veränderten Zustand als … herauszukommen.“ Ergebnis der Meditation.“ Ein flüchtiger Blick auf die jüngsten Schlagzeilen würde Ihnen jedoch keine Auskunft über eines dieser Probleme geben.

Die Nebenhandlung besteht darin, dass die größten KI-Forscherteams nicht mehr in der Akademie zu finden sind, wo Peer-Review die Devise war, sondern in Unternehmen. Und im Gegensatz zu Universitäten haben Unternehmen keinen Anreiz, fair zu handeln. Anstatt ihre aufsehenerregenden neuen Arbeiten einer wissenschaftlichen Prüfung zu unterziehen, haben sie dazu übergegangen, sie per Pressemitteilung zu veröffentlichen, Journalisten zu verführen und den Peer-Review-Prozess zu umgehen. Wir wissen nur, was die Unternehmen von uns wissen lassen wollen.

In der Softwarebranche gibt es ein Wort für diese Art von Strategie: „Demoware“, Software, die so gestaltet ist, dass sie für eine Demo gut aussieht, aber nicht unbedingt gut genug für die reale Welt ist. Oft wird Demoware zu Vaporware, die aus Schock und Ehrfurcht angekündigt wird, um Konkurrenten abzuschrecken, aber nie veröffentlicht wird.

Hühner kommen jedoch irgendwann zum Schlafen nach Hause. Cold Fusion hört sich vielleicht großartig an, aber im Einkaufszentrum ist es immer noch nicht erhältlich. Die KI wird wahrscheinlich einen Winter mit gedämpften Erwartungen erleben. Zu viele Produkte, wie selbstfahrende Autos, automatisierte Radiologen und universelle digitale Agenten, wurden vorgeführt, beworben – und nie geliefert. Im Moment kommen die Investitionssummen wie versprochen (wer hätte nicht gerne ein selbstfahrendes Auto?). Aber wenn die Kernprobleme der Unzuverlässigkeit und der Unfähigkeit, mit Ausreißern umzugehen, nicht gelöst werden, werden die Investitionen versiegen. Wir können zwar solide Fortschritte bei der maschinellen Übersetzung sowie der Sprach- und Objekterkennung erzielen, aber bei all dem verfrühten Hype gibt es sonst zu wenig, um es vorzuweisen. Anstelle von „intelligenten“ Städten und einer „demokratisierten“ Gesundheitsversorgung bleiben uns destruktive Deepfakes und energiesaugende Netzwerke, die immense Mengen an Kohlenstoff ausstoßen.

Obwohl Deep Learning die Fähigkeit von Maschinen, Muster in Daten zu erkennen, verbessert hat, weist es drei große Mängel auf. Die Muster, die es lernt, sind ironischerweise oberflächlich und nicht konzeptionell; die daraus resultierenden Ergebnisse sind schwer zu interpretieren; und die Ergebnisse sind im Kontext anderer Prozesse wie Gedächtnis und Argumentation schwer zu verwenden. Der Informatiker Les Valiant von der Harvard University bemerkte: „Die zentrale Herausforderung [für die Zukunft] besteht darin, die Formulierung von … Lernen und Denken zu vereinheitlichen.“ Sie können nicht mit einer Person umgehen, die ein Stoppschild trägt, wenn Sie nicht wirklich verstehen, was ein Stoppschild überhaupt ist.

Derzeit sind wir in einem „lokalen Minimum“ gefangen, in dem Unternehmen eher Benchmarks als grundlegenden Ideen verfolgen. Die aktuelle Ingenieurspraxis ist den wissenschaftlichen Fähigkeiten weit voraus: Diese Abteilungen konzentrieren sich darauf, kleine Verbesserungen mit den kaum verstandenen Werkzeugen, die sie bereits haben, durchzusetzen, anstatt neue Technologien auf einer klareren theoretischen Grundlage zu entwickeln. Deshalb bleibt die Grundlagenforschung von entscheidender Bedeutung. Dass ein großer Teil der KI-Forschungsgemeinschaft (wie diejenigen, die „Game over“ rufen) das nicht einmal sieht, ist herzzerreißend.

Stellen Sie sich vor, ein Außerirdischer würde die gesamte menschliche Interaktion nur dadurch untersuchen, dass er auf die Schatten auf dem Boden blickt und dabei bemerkt, dass einige größer sind als andere und dass alle Schatten nachts verschwinden. Vielleicht würde es sogar bemerken, dass die Schatten in bestimmten periodischen Abständen regelmäßig größer und kleiner werden – ohne jemals nach oben zu schauen, um die Sonne zu sehen oder die 3D-Welt darüber zu erkennen.

Es ist an der Zeit, dass Forscher im Bereich der künstlichen Intelligenz von den protzigen, direkt in die Medien verbreiteten Demos aufschauen und grundlegende Fragen dazu stellen, wie man Systeme baut, die gleichzeitig lernen und argumentieren können.

Wird künstliche Intelligenz jemals ihrem Hype gerecht? John Horgan; ScientificAmerican.com, 4. Dezember 2020.

Kate Wong

Daniel Cusick und E&E News

Brianne Kane

H.-S. Philip Wong | Meinung

Naomi Oreskes

Philip Ball

AKTIE