Aktuell 22.09.2022 (Archiv)
KI als Gefahr auf der Straße
Ein sogenanntes 'Neuronales Faltungsnetzwerk' sieht Objekte anders als Menschen es tun. Das könnte in realen KI-Anwendungen gefährlich sein, sagt James Elder von der University of York, etwa in der Aus- und Weiterbildung.Dies ist das Ergebnis einer Untersuchung, die neuartige visuelle Reize namens 'Frankensteins' nutzt, um herauszufinden, wie das menschliche Gehirn und Faltungsnetzwerke ganzheitliche, konfigurative Objekteigenschaften verarbeiten.
'Frankensteins sind einfach Objekte, die auseinandergenommen und falsch wieder zusammengesetzt wurden. Infolgedessen haben sie alle richtigen lokalen Funktionen, aber an den falschen Orten. Unsere Ergebnisse erklären, warum Deep-AI-Modelle unter bestimmten Bedingungen versagen, und weisen auf die Notwendigkeit hin, Aufgaben jenseits der Objekterkennung zu berücksichtigen, um die visuelle Verarbeitung im Gehirn zu verstehen', sagt Elder.
Diese Modelle würden dazu neigen, bei der Lösung komplexer Erkennungsaufgaben 'Abkürzungen' zu nehmen. Während diese Abkürzungen in vielen Fällen funktionieren, so Elder, können sie in einigen realen Anwendungen der Künstlichen Intelligenz (KI), an denen die Forscher derzeit mit Industrie- und Regierungspartnern arbeiten, gefährlich sein. Zu solchen Anwendungen gehört der Straßenverkehr, der von Menschen anders gesehen wird als von Maschinen.
'Die Objekte in einer belebten Verkehrsszene - Autos, Fahrräder und Fußgänger - behindern sich gegenseitig und gelangen als Durcheinander von getrennten Fragmenten zum Auge eines Fahrers', erklärt Elder. 'Das Gehirn muss diese Fragmente richtig gruppieren, um die richtigen Kategorien und Positionen der Objekte zu identifizieren. Ein KI-System zur Verkehrssicherheitsüberwachung, das nur in der Lage ist, die Fragmente einzeln wahrzunehmen, wird bei dieser Aufgabe versagen und möglicherweise Risiken für ungeschützte Verkehrsteilnehmer falsch einschätzen', so der Forscher.
Den Forschern zufolge führen Änderungen an Training und Architektur, die darauf abzielen, Netzwerke gehirnähnlicher zu machen, nicht zu einer konfigurativen Verarbeitung, und keines der Netzwerke war in der Lage, menschliche Objekturteile von Versuch zu Versuch genau vorherzusagen. 'Wir spekulieren, dass Netzwerke trainiert werden müssen, um der menschlichen Konfiguralempfindlichkeit gerecht zu werden, um ein breiteres Spektrum von Objektaufgaben über die Kategorieerkennung hinaus zu lösen', bemerkt Elder abschließend.
Ihre Meinung dazu? Schreiben Sie hier!
#Forschung #KI #Navigation #Assistenz
Newsticker per eMail oder RSS/Feed!
Auch interessant!
Kreative gegen KI
Die rasante Entwicklung und Verbreitung von Künstlicher Intelligenz (KI) bedroht die ohnehin oft schon se...
Verschreckte Assistenten
Kisten, Fahrräder, Mülleimer und Verkehrskegel können ein fahrerloses Fahrzeug abrupt stoppen, sodass der...
KI-Museum anfassen
Exponate zum Anfassen: Darauf setzen Museen gerne, um besonders Kindern Wissen spielerisch zu vermitteln....
Mehr KI im Alltag
Die Skepsis gegenüber dem Einsatz Künstlicher Intelligenz (KI) nimmt in der Bevölkerung ab....
Forum: Ihre Meinung dazu! Ins Forum dazu posten... |