Bias bei künstlicher Intelligenz
Mit der Verbreitung von Anwendungen der künstlichen Intelligenz (KI) treten auch deren Schwächen ins Zentrum der öffentlichen Diskussion. Eine davon wird als «Bias» bezeichnet, das die «Voreingenommenheit» eines KIModells beschreibt. Neben ethischen und gesellschaftspolitischen Fragen ergeben sich daraus konkrete Gefahren, weshalb es zu erkennen, verstehen und die daraus resultierenden negativen Folgen zu beheben gilt.
Unsere Empfehlungen für den öffentlichen Sektor
- Bias erkennen
Verwaltungen sollten ein Bewusstsein für die Existenz von Bias in KIAnwendungen entwickeln und ihre Anwendungen stets auf den Prüfstand stellen. Vor allem in einer immer diverser werden Gesellschaft ist hierbei die Einbeziehung unterschiedlicher Personengruppen wichtig, um idealerweise der Entstehung von Bias vorzubeugen. - Bias verstehen
Sofern Bias erkannt wurde, bedarf es eines RiskAssessments. Liegen erhebliche Gefahren für die Anbietenden oder Nutzenden vor, empfiehlt es sich, die Trainingsdaten auf Verzerrungen zu überprüfen. - Bias beheben
Sobald die Fehlerquelle ermittelt wurde, sollte die entsprechende KIAnwendung mit neuen Daten verbessert werden. Wichtig ist dabei auch das kontinuierliche Feedback der Nutzenden (beispielsweise nach dem Prinzip «Human in the Loop»).