Skip to main content

Künstliche Intelligenz und Ethik: Unterdrücken uns Algorithmen?

Blog-Eintrag   •   Nov 26, 2018 15:00 CET

Warum sehe ich Werbung für Flüge nach Paris, nachdem ich mir online die Sehenswürdigkeiten der französischen Hauptstadt angeschaut habe? Wer bestimmt, unter welchen Bedingungen ich einen Kredit für den Kauf eines neuen Laptops bekommen kann? Und woher wissen soziale Medien, welche Inhalte für mich relevant sind?

Algorithmen sind aus unserem Alltag schwer wegzudenken und werfen zunehmend Fragen ethischer Natur darüber auf, wie automatisierte Entscheidungsprozesse funktionieren und sich auf unser Leben auswirken.

Mit den ethischen Aspekten hinter diesen und weiteren Fragen befasste sich die Podiumsdiskussion aus der Reihe Science & People, die Elsevier zusammen mit den Projektpartnern Fraunhofer-Verbund IUK-Technologie, Stifterverband für die Deutsche Wissenschaft und Wissenschaft im Dialog (WiD) im Rahmen der Berlin Science Week 2018 veranstaltete. Das Thema des Abends „Digitale Ethik: Unterdrücken uns Algorithmen?“ ist eine Frage, die hinsichtlich der gesellschaftlichen Relevanz des Megatrends Digitalisierung für viele Menschen zunehmend an Bedeutung gewinnt. Allzu oft wird allerdings das Wort „Algorithmus“ verwendet, ohne genau zu definieren, was damit gemeint ist. Bei genauerer Betrachtung geht es bei der gegenwärtigen Diskussion nämlich vielmehr um Systeme zur Entscheidungsunterstützung (Decision Support Systems – DSS), die Daten flexibel analysieren und Handlungsvorschläge liefern.

Obwohl DSS derzeit zwar noch zur künstlichen Intelligenz gezählt werden, wird sich diese Wahrnehmung aber wahrscheinlich im Zuge des technologischen Fortschritts ändern, wie Matthias Spielkamp, Journalist und Gründer von AlgorithmWatch, während der Podiumsdiskussion erklärte: „Das, was wir vor 20 Jahren als KI bezeichnet haben, bezeichnen wir heute nicht mehr als KI, sondern als Software. In 15 Jahren werden wir diesen Begriff wieder neu definieren.“ Außerdem sollten Algorithmen nicht mehr als autonome Einheiten wahrgenommen werden, sondern viel eher als Werkzeuge, die von Menschen geschaffen wurden, um einen bestimmten Zweck zu erfüllen.

Datenvielfalt als Grundlage ethischer Entscheidungen

Algorithmen sind in vielerlei Hinsicht sehr nützlich. Gleichzeitig bergen sie jedoch auch das Risiko, Menschen basierend auf Ethnizität, Geschlecht oder sozialem Status systematisch zu benachteiligen. Dem Panel zufolge sollte die Ursache für diese Benachteiligung allerdings nicht beim Algorithmus selbst gesucht werden, sondern bei den Daten, mit denen er trainiert wurde. Wenn diese Daten die Realität unausgewogen abbilden, können die darauf basierend vorgeschlagenen Maßnahmen ethisch fragwürdig sein.

Daher gilt es, bei der Auswahl der Daten, die in solche Systeme eingespeist werden, besondere Sorgfalt walten zu lassen. Dazu erklärte Professor Dr. Ina Schieferdecker, Leiterin des Fraunhofer-Instituts für Offene Kommunikationssysteme (FOKUS): „Wir müssen darauf achten, dass die Technik nicht Menschen in ihrer Freiheit oder Selbstbestimmung behindert, das Leben beeinträchtigt oder gar gefährdet. Ich ziehe ganz klar die Linie entlang von Menschenrechten und Gesetzen.“

Um potenziellen Risiken durch Algorithmen zu begegnen, verlangen Verbraucher zunehmend nach Transparenz, um die von ihnen genutzten Dienste besser verstehen zu können. Unter Daten- und Verbraucherschützern werden Rufe nach staatlicher Regulierung laut – ein Ansatz, der in der wissenschaftlichen Gemeinschaft auf Skepsis stößt: Einerseits könne der Regulierungsgegenstand nur schwer festgelegt werden, andererseits dürfe die Rolle des Einzelnen auch nicht völlig außer Acht gelassen werden. Der Schlüssel liege deswegen darin, die öffentliche Debatte zu fördern, wie Dr. Katharina Simbeck, Professorin für Digitalisierung, Marketingcontrolling & Analytics and der HTW Berlin, abschließend feststellte. Es sei wichtig, die ethischen und gesellschaftlichen Konsequenzen der Digitalisierung in der Öffentlichkeit zu diskutieren, und als Gesellschaft einen Umgang mit DSS zu finden, „umgekehrt sollte sich aber auch jeder und jede Einzelne über die individuelle Verantwortung bei der Nutzung dieser Systeme bewusst sein“, so die Expertin.

Neue Verantwortung für die Wissenschaftsgemeinschaft

Forscher und Entwickler im Bereich des maschinellen Lernens und KI werden daher in Zukunft mehr Verantwortung übernehmen müssen. Nicht nur für die sachliche und methodische Richtigkeit ihrer Forschung, sondern auch für deren möglichen ethischen Auswirkungen. Um das öffentliche Bewusstsein für diese Verantwortung und Problematik zu schärfen, könnten ethische Überlegungen in die Hochschulausbildung eingebracht werden, insbesondere in den Natur- und Ingenieurwissenschaften. Außerdem sollte der interdisziplinäre Austausch zu den Themen maschinelles Lernen und KI gefördert werden.

Beide Ansätze bieten erste Schritte für Forscher, um sich der potenziellen Auswirkungen ihrer Entscheidungen bei der Entwicklung eines automatisierten DSS auf Individuen und Gesellschaft bewusst zu werden. In diesem Zusammenhang argumentierte Matthias Spielkamp dafür, dass Technologie nicht nur einigen wenigen nutzen dürfe: „Wir denken, dass Systeme zur automatisierten Entscheidungsunterstützung dazu eingesetzt werden sollten, das Gemeinwohl zu stärken, die Teilhabe zu stärken und Gerechtigkeit zu verbessern. Das sind alles große Begriffe und die sind schwer zu definieren, aber wir müssen sie verwenden, weil das etwas ist, worüber wir als Gesellschaft diskutieren müssen.“ Und innerhalb der Gesellschaft, so das Fazit des Panels, können und sollten Forscher ihren Teil beitragen.

Kommentare (0)

Kommentar hinzufügen

Kommentar

Durch das Absenden Ihres Kommentars akzeptieren Sie, dass Ihre persönlichen Daten Mynewsdesks Datenschutzerklärung entsprechend verarbeitet werden.