Computer sollen demnach zum Lernen neben der internen Logik auch Erklärungen von Nutzern berücksichtigen. "Es gibt Grenzen, was ein Computer nur durch eigene Beobachtungen und Versuche, aus Erfahrung zu lernen, erreichen kann. Er muss nicht nur verstehen, ob er etwas falsch oder richtig gemacht hat, sondern auch, warum", erklärt Margaret Burnett, Informatikprofessorin an der OSU. Das Team arbeitet an einem Projekt, um ein solches Verständnis möglich zu machen. Systeme, die durch Lernen die Anforderungen der User besser erfüllen sollen, umfassen etwa E-Mail-Spamfilter oder Empfehlungen für den Nutzer interessanter Produkte beispielsweise bei Amazon. Solche Lösungen verwenden den OSU-Forschern zufolge verschiedene Zugänge wie feste Regeln, Ähnlichkeiten, Wörterstatistiken und mehr. Selbst die fortschrittlichsten Systeme böten nur die Möglichkeit, dem Computer mitzuteilen, dass etwas richtig oder falsch ist - aber nicht, warum. Das kann zu Problemen führen. Beispielsweise grassieren im Internet betrügerische E-Mails, in der angebliche Geschäftspartner aus Nigeria mithilfe des Nutzers Geld außer Landes schaffen wollen. Da dieser Betrug sehr verbreitet ist, werden solche E-Mails in der Regel von Filtern anhand von Schlüsselworten als Spam identifiziert.
Problematisch wird der Spamfilter im Fall von Ausnahmen. Wenn etwa ein User tatsächlich einen nigerianischen Banker kennt, darf nicht jede Mail, in der es um "Nigeria" und "Geld" geht, im Spamordner landen - und das System sollte verstehen, warum. "Für solche Fälle wollen wir Algorithmen schaffen, die es dem Nutzer erlauben, den Computer nach dem Grund für eine Entscheidung zu fragen, die Antwort zu lesen und dann zu erklären, warum das ein Fehler war", sagt Wenig-Keen Wong, Assistenzprofessor für Informatik an der OSU. Der Computer solle diese Erklärung beim Anpassen der Programmierung berücksichtigen, praktisch wie bei einer Fehlerbehebung.
Bei dem Projekt sehen sich die Forscher mit großen Herausforderungen konfrontiert. So dürften solche interaktiven Systeme nicht zu komplex für Durchschnittsanwender ausfallen. Auch müsste die künstliche Intelligenz damit umgehen können, dass menschliche Nutzer nicht immer Recht haben. Ein sturer Nutzer könnte darauf beharren, dass der Computer etwas "lernt", das objektiv gesehen schlichtweg falsch ist. Insofern darf das Lernen keine Einbahnstraße sein. Der Computer sollte vielmehr zum Partner werden, so die Vision der OSU-Forscher. "Man hilft ihn zu lehren, er lernt einen kennen, man lernt voneinander und der Computer wird nützlicher", sagt Burnett.
(pte/mje - tecchannel.de)
(pte/mje - tecchannel.de)
Buchtipps:
Grundkurs künstliche Intelligenz - Wolfgang Ertel, Vieweg+Teubner
Künstliche Intelligenz - Jürgen Cleve, Hanser Fachbuch
KI - ein morderner Ansatz - Stuart Russell, Pearson Studium
Keine Kommentare:
Kommentar veröffentlichen