Algorithmen mit Vorurteilen – wie fehlerhaft ist die Technik?
Während Künstliche Intelligenz inzwischen auch praxisrelevante Erfolge feiert und Algorithmen immer öfter Entscheidungen fällen, werden Probleme der Technik sichtbarer. Denn während Googles Deepmind offenbar das Problem der Proteinstrukturvorhersage gelöst hat, finden Forscher bei anderen bekannten KI-Vertretern immer wieder ganz grundlegende Schwierigkeiten. Das viel gelobte KI-Sprachmodell GPT-3 etwa hegt tief verankerte Vorurteile gegen Muslime, Algorithmen zur Bildgenerierung erwarten bei Männern Anzüge und bei Frauen Bikinis. Die Ursachen sind teilweise schnell erklärt, aber offenbar nicht so einfach zu beheben. Grund genug, darüber zu sprechen.
Welche Entwicklungen gibt es aktuell in der KI-Forschung? Woran liegt es, dass auch die scheinbar neutralen Algorithmen nicht ohne menschlichen Vorurteile arbeiten? Was lässt sich dagegen machen und wie intensiv wird daran gearbeitet? Welche Ansätze werden aktuell bevorzugt, um KI zu trainieren? Welche gibt es noch und welche Vor- beziehungsweise Nachteile haben die? Wie relevant ist KI inzwischen, welche Beispiele für ihren Einsatz gibt es? Sind sich die Verantwortlichen der Einschränkungen bewusst? Wie sieht die Gesellschaft Künstliche Intelligenz und was kann an diesem Bild noch verbessert?
Diese und viele weitere Fragen – auch der Zuschauer – besprechen Kristina Beer (@beekbee) und Martin Holland (@fingolas) mit c't-Redakteurin Pina Merkert in einer neuen Folge der #heiseshow, live ab 12 Uhr.
=== Anzeige / Sponsorenhinweis ===
Sichern Sie sich das Ticket für nur 249 € und erleben Sie geballtes Wissen und die ein oder andere Überraschung auf der secIT! Mehr Infos finden Sie unter sec-it.heise.de
=== Anzeige / Sponsorenhinweis Ende ===