Content  14.11.2023

KI verbessert Content

Die Qualität der in der Online-Enzyklopädie Wikipedia zusammengefassten Infos lässt sich mithilfe Künstlicher Intelligenz (KI) deutlich verbessern.

Das glaubt zumindest das Londoner Start-up Samaya AI, das mit 'SIDE' ein eigenes KI-System entwickelt hat, das die Quellen von Wikipedia-Beiträgen automatisch nach ihrer Überprüfbarkeit und Zuverlässigkeit klassifiziert und bei Bedarf auch alternative Quellen vorschlägt. Bei ersten Tests vertrauten User bereits in 70 Prozent der Fälle lieber jenen Quellenangaben, die SIDE zutage förderte.

'Wikipedia ist heute mit einer halben Bio. Seitenbesuchen pro Jahr eine der beliebtesten Websites und eine der wichtigsten Wissensquellen im Internet', so Fabio Petroni, Mitgründer und CTO von Samaya AI. Gerade deshalb sei es umso wichtiger, dass jedes Wissen, das über diese Seite verbreitet werde, genau zu überprüfen ist. 'Wikipedia-User sollten in der Lage sein, Behauptungen, die auf der Seite aufgestellt werden, mithilfe von verlässlichen externen Quellen zu verifizieren. Um das zu ermöglichen, enthalten die Beiträge verlinkte Quellenangaben, die auf entsprechendes Hintergrundmaterial verweisen', erklärt der Experte.

Die Verbesserung der Qualität dieser Quellenangaben sei eine wichtige Herausforderung. 'Es gibt einen gewaltigen Druck, um neue Werkzeuge zu kreieren, die Menschen dabei unterstützen können, dieses Ziel zu erreichen', betont Petroni. In seinem Unternehmen sei man davon überzeugt, dass dies mithilfe von KI und einem dazugehörigen Sprachmodell durchaus machbar ist. 'Wir haben mit SIDE ein System entwickelt, das auf einem neuronalen Netzwerk basiert und all jene Zitate identifizieren kann, die wenig glaubwürdig erscheinen, und anschließend auch selbst bessere vorschlagen kann', so der Firmenmitgründer.

Um die Qualität der Quellenangaben zu steigern, haben Petroni und sein Team ihr KI-System zunächst mit einem riesigen Datenset von Wikipedia-Einträgen gefüttert und trainiert. Anschließend wurden damit dann Artikel überprüft, die das Modell bislang noch nicht analysiert hatte. Dabei wurde besonders auf eine korrekte Angabe von Quellen geachtet. Wenn diese nicht überprüfbar waren oder als wenig verlässlich eingestuft wurden, schlug SIDE selbst alternative Referenzen vor.

Bei einem Praxistest wurden die ursprünglich angeführten Wikipedia-Quellen dann mit jenen verglichen, die das KI-System ausgesucht hatte. Das Ergebnis war eindeutig: Wenn SIDE Quellen als nicht überprüfbar einstufte und Alternativen vorschlug, präferierten User in 70 Prozent der Fälle die Referenzen des KI-Tools. In rund der Hälfte der Fälle fand SIDE genau die gleichen Quellen, die auch im entsprechenden Wikipedia-Artikel angeführt waren.

pte/red


Weiter in der Web-Version mit Fotos, Videos, Links und mehr...

#KI #Wikipedia #Content

Auch interessant!
KI gefährdet Nachwuchs
Es bestehe die Gefahr, das Wissen, das etablierte Mitarbeiter erworben haben, an den Nachwuchs nicht weit...

Reich in Wikipedia
Wikipedia schenkt Ereignissen, die in reicheren Ländern stattfinden, mehr Aufmerksamkeit. Das zeigt eine ...

Wikipedia vor Gericht
Richter in Irland suchen immer öfter in der Online-Enzyklopädie Wikipedia statt in juristischen Fachdiens...

Wikipedia unverständlich?
Wikipedia-Artikel benötigen sprachliche Verbesserungen, um von Lesern verstanden zu werden. Zu dem Schlus...

KI in der Wikipedia
Forscher am Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) entwickel...