Aktuell  14.02.2024

Potential und Risiko von KI

'Künstliche Intelligenz (KI) kann eine existenzielle Katastrophe auslösen', warnt Roman V. Yampolskiy, russischer Computerwissenschaftler und KI-Sicherheitsexperte der University of Louisville.

KI sei unzureichend verstanden, unzureichend definiert und unzureichend erforscht. Sie habe das Potenzial, die Gesellschaft dramatisch umzugestalten, 'nicht immer zu unserem Vorteil' (pressetext berichtete).

Yampolskiy hat die wissenschaftliche KI-Literatur umfassend überprüft - und eigenen Angaben nach keinen Beweis für eine sichere Kontrollierbarkeit von KI gefunden. Und selbst wenn es einige Teilkontrollen gäbe, würden diese nicht ausreichen. 'Warum gehen so viele Forscher davon aus, dass das KI-Kontrollproblem lösbar ist?' fragt der Experte und ergänzt: 'Nach unserem besten Wissen gibt es dafür keinen Beweis.'

Die Entwicklung der KI-Superintelligenz sei ein fast garantiertes Ereignis. Deshalb seien erhebliche Anstrengungen zur KI-Sicherheit nötig. Er argumentiert, dass unsere Fähigkeit, intelligente Software zu produzieren, unsere Fähigkeit, sie zu kontrollieren oder sogar zu überprüfen, bei weitem übersteigt. Fortschrittliche intelligente Systeme könnten niemals vollständig kontrolliert werden und stellten daher unabhängig vom Nutzen, den sie bieten, immer ein gewisses Risiko dar. Yampolskiy glaubt, dass es das Ziel der KI-Community sein sollte, dieses Risiko zu minimieren und gleichzeitig den potenziellen Nutzen zu maximieren.

Das Hauptproblem sei, dass KI und Superintelligenz sich von anderen Programmen durch ihre Fähigkeit entschieden, neue Verhaltensweisen zu erlernen, ihre Leistung anzupassen und in neuartigen Situationen halbautonom zu handeln. Gleichzeitig, so Yampolskiy, könne KI nicht erklären, was sie entschieden hat, oder Menschen könnten die gegebene Erklärung nicht verstehen. KI-Systeme seien heute schon damit beauftragt, Entscheidungen in den Bereichen Gesundheitswesen, Investitionen, Beschäftigung, Bankwesen und Sicherheit zu treffen. Diese sollten in der Lage sein zu erklären, wie sie zu ihren Entscheidungen gekommen sind.

'Wenn wir uns daran gewöhnen, KI-Antworten ohne Erklärung zu akzeptieren und ihnen quasi blind vertrauen können wir nicht erkennen, ob sie anfängt, falsche oder manipulative Antworten zu liefern', warnt Yampolskiy. Mit zunehmender Leistungsfähigkeit der KI nehme ihre Autonomie zu, aber die Kontrolle über sie nehme ab. Um solche Gefahren abzuwenden, müssten Aufwand und Finanzierung für die KI-Sicherheitsforschung erhöht werden. 'Wir werden vielleicht nie eine 100-prozentig sichere KI erreichen, aber wir können die KI sicherer machen, was viel besser ist, als nichts zu tun', so der Experte.

pte/red


Weiter in der Web-Version mit Fotos, Videos, Links und mehr...

#Studie #KI #AI

Auch interessant!
Auto-Kredite durch KI
Künstliche Intelligenz (KI) kann Vorurteile abmildern und die Kreditvergabe für marginalisierte Kundschaf...

KI plaudert mit KI
Ein Team um Alexandre Pouget von der Universität Genf lässt zwei Künstliche Intelligenzen (KI) miteinande...

KI in Banken schädlich
Bewertungsprogramme von Banken auf Basis Künstlicher Intelligenz (KI) können sich für die Institute und i...

Fluch und Segen der KI
Generative Künstliche Intelligenz (KI) ist auch an Schulen auf dem Vormarsch, nicht immer zur Freude der ...

KI und Social
Ob für Chats, Content-Produktion oder Datenanalysen - Künstliche Intelligenz (KI) hat 2023 eindrucksvoll ...

Stalking nimmt zu
Die Fälle von Cyber-Stalking nehmen ständig zu. Laut dem U.S. Department of Justice sind jährlich mehr al...

Risikobewertung mit KI
Das Beratungsunternehmen Accenture wird im Laufe der kommenden drei Jahre drei Mrd. Dollar (rund 2,8 Mrd....