Großkonzerne

KI-Fachwelt macht sich Sorgen über KI-Risiken

Ein offener Brief mit mittlerweile rund 28 000 Unterschriften warnt vor den Risiken der künstlichen Intelligenz (KI). Fraglich ist jedoch, was das geforderte sechsmonatige Entwicklungsmoratorium bringen würde.
Seit der Einführung von ChatGPT werden KI-Risiken in Massenmedien diskutiert. picture-alliance/Stanislav Kogiku/picturedesk.com/Stanislav Seit der Einführung von ChatGPT werden KI-Risiken in Massenmedien diskutiert.

Anfang Mai stieg Geoffrey Hinton bei Google aus. Der 75-Jährige ist ein Pionier der simulierten neuronalen Netzwerke, auf denen heutige KI-Systeme beruhen. Er sagt, er habe sich von dem Konzern verabschiedet, um frei über Risiken der Technik sprechen zu können. Aus seiner Sicht sind Chatbots „ziemlich furchterregend“ und könnten von „schlechten Akteuren“ genutzt werden.

Hintons Sorgen sind in der Fachwelt verbreitet. Ende April forderte der finanzmächtige norwegische Staatfonds Regierungen weltweit auf, die Regulierung von künstlicher Intelligenz voranzutreiben. Er kündigte an, bald Richtlinien für die Firmen, in die er investiert, zu veröffentlichen. Dazu gehören Großkonzerne wie Apple, die Google-Mutter Alphabet und Microsoft.

Risiken auf drei Ebenen

Auch Technologie-Enthusiasten sehen auf drei Ebenen Risiken:

  • KI-Programme können die Verbreitung von Fehlinformationen beschleunigen.
  • Möglich sind auch erhebliche ökonomische und soziale Schäden, wenn beispielsweise ganze Berufsgruppen überflüssig werden.
  • Denkbar ist aber auch das Aussterben oder die Verdrängung der menschlichen Spezies. Eine Umfrage unter US-Fachleuten ergab 2022 für die Wahrscheinlichkeit solch einer desaströsen Entwicklung einen Medianwert von zehn Prozent.

Eine programmatische Publikation der Harvard-Universität warnte Ende 2021, so wie KI derzeit praktiziert werde, laufe sie auf zentrale Entscheidungsfindung hinaus. Die Autor*innen betonten, die Entwicklungslabore hätten ein falsches Verständnis von menschlicher Intelligenz und übersähen die Bedeutung von Debatten, Pluralismus und kooperativem Handeln.

Die prominenteste Warnung erschien dann im März dieses Jahres. Das Future of Life Institute veröffentlichte einen offenen Brief, den bis zum 9. Mai fast 28 000 Menschen, von denen viele im Tech-Sektor arbeiten, unterschrieben hatten. Angesichts der Risiken fordert der Brief eine sechsmonatige Entwicklungspause.

Zur Begründung heißt es, die Entwicklung müsse neu orientiert werden, um die bereits existierenden Systeme „präziser, sicherer, besser nachvollziehbar, robuster, besser angepasst, transparenter und zuverlässiger“ zu machen. Während des Moratoriums sollten die führenden Labore zusammen mit externen Fachleuten Sicherheitsprotokolle formulieren und umsetzen. Unabhängige Fachleute müssten dann konsequent die Einhaltung der Protokolle überwachen.

Grundsatzfragen

Der offene Brief formuliert Sorgen, die zuvor nur in den Silos der Fachdisziplinen geäußert worden. Er fragt explizit: „Sollen wir alle Arbeitsplätze wegautomatisieren, einschließlich der erfüllenden? Sollen wir nichtmenschliches Bewusstsein schaffen, das uns eines Tages überlegen sein kann und überflüssig macht? Sollen wir riskieren, Kontrolle über unsere Zivilisation zu verlieren?“

Dass Elon Musk, der umstrittene Großinvestor von Tesla, SpaceX und Twitter, den Brief unterschrieb, hat vom Kernanliegen des Briefs abgelenkt – zumal er kurz darauf ankündigte, eine neue KI-Firma zu gründen. Tatsächlich war er ein früher Anteilseigner von OpenAI, einer der führenden Firmen. Er stieg dann aber wieder aus, und heute wird OpenAI zum Microsoft-Umfeld gezählt.

Weltbekannt wurde OpenAI Ende 2022 mit dem Launch von ChatGPT. Im März 2023 kam dann die noch leistungsstärkere Version GPT4. Sie kann lange Texte zusammenfassen oder Gedichte schreiben und hat in den USA auch Juraklausuren bestanden. Sie macht aber auch Fehler, sodass Informationen nachrecherchiert werden müssen. Der offene Brief war eine Reaktion auf GPT4.

Auch andere Unternehmen haben mittlerweile Chatbots gestartet. Das Bildungssystem wird reagieren müssen. Mittelfristig kann diese Technik auch Routinearbeiten von Angestellten übernehmen – zum Beispiel in Callcentern, Steuerbüros oder Verwaltungen.

Was ein sechsmonatiges Moratorium bringen kann, ist jedoch unklar. Marie­tje Schaake von der Stanford Universität merkt an, für gründliche Gesetzgebung sei sehr viel mehr Zeit nötig. Das gelte besonders, weil die Regulierung sowohl flexibel als auch stringent genug sein müsse, um einem Sektor in schnellem Wandel gerecht zu werden. Sie lässt aber kein Zweifel daran, dass politisches Handeln dringend nötig ist, denn eine Handvoll Firmen treibe die KI-Entwicklung allein voran. Anderen fehlten die nötigen Datenvolumina und Rechnerkapazitäten. Selbst ihre eigene Universität sei nicht wettbewerbsfähig.

Die Diskussion läuft in allgemeinbildenden Medien weiter. Hochrangige Personen erklären, weshalb sie den offenen Brief unterschrieben haben oder auch nicht. Die große Frage bleibt indessen offen: Wie kann KI so reguliert werden, dass sie die Menschheit schützt und ihr dient?

Link
Future of Life Foundation 2023, Open Letter:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Roli Mahajan ist freie Journalistin und lebt im nordindischen Lucknow. Ihr Beitrag beruht auf der Berichterstattung von internationalen Medien wie dem Guardian, der New York Times und der Financial Times.
roli.mahajan@gmail.com

Mehr zum Thema

Relevante Artikel