Direkt zum Inhalt springen
Vertrauen in Künstliche Intelligenz | Interview mit Univ.-Prof. Dr. Martin K.W. Schweer

Pressemitteilung -

Vertrauen in Künstliche Intelligenz | Interview mit Univ.-Prof. Dr. Martin K.W. Schweer

Interview mit Univ.-Prof. Dr. Martin K.W. Schweer von der Universität Vechta zum Thema Vertrauen und Künstliche Intelligenz. Er ist wissenschatlicher Leiter des Arbeitsbereichs Pädagogische Psychologie und der angegliederten Arbeitsstellen: Zentrum für Vertrauensforschung, sportpsychologische Beratungsstelle Challenges und Lehren Digital.

  1. Was bedeutet es, von Vertrauen in Künstliche Intelligenz zu sprechen?

    Vertrauen in Technologien wird im wissenschaftlichen Diskurs ganz verschieden betrachtet, in meinem Verständnis ist Vertrauen stets ein Phänomen des sozialen Miteinanders. Vertrauen in Technologien bezieht sich somit grundsätzlich auf die Menschen hinter den Technologien, das gilt auch für Künstliche Intelligenz. KI scheint für den Betrachter menschliche Züge anzunehmen, Dialoge zu führen und Fragen zu beantworten – Vertrauen meint in diesem Kontext, im Sinne einer kritischen Auseinandersetzung offen für die Potenziale von KI zu sein, zugleich ist Vertrauen aber stets mit dem Risiko des Missbrauchs verbunden. Technologien per se haben keine Handlungsabsicht, sie können allerdings in zuträglicher und hilfreicher, ebenso in schädigender Weise verwendet werden – und genau hierfür sind die Menschen hinter den Technologien verantwortlich. So steht derzeit etwa der Einsatz von KI in kriegerischen Auseinandersetzungen im öffentlichen Diskurs. Wenn also davon gesprochen wird, dass einem bestimmten KI-Modell vertraut wird, dann bezieht sich dieses Vertrauen auf das Unternehmen, das dieses Modell mit einem bestimmten Ziel entwickelt und trainiert hat, sowie auf dessen Umgang mit den Daten der Nutzer.

  2. Welche Bedingungen müssen Ihrer Meinung nach erfüllt sein, bevor überhaupt solch ein Vertrauen investiert werden sollte?

    Es geht stets um Vertrauen in die Menschen und die Organisationen, die KI-Modelle entwickeln und verwenden. Vertrauen ist dabei grundsätzlich nicht blind, es schließt also keineswegs die kritische Reflexion aus und sollte nicht leichtfertig vergeben werden. Vor der Entscheidung, Vertrauen zu schenken, steht insofern die Auseinandersetzung mit der Frage, zu welchem Zweck und wie ein spezifisches KI-Modell überhaupt trainiert wurde. So wird beispielsweise oftmals vergessen, dass es sich bei den großen generativen Sprachmodellen – auf einem solchen basiert ja auch Chat-GPT – um keine expliziten Wissensmodelle im Sinne der Wiedergabe wissenschaftlich geprüfter Erkenntnisse handelt, sondern um Modelle, die darauf optimiert sind, einen Text sprachlich korrekt zu vervollständigen. Auch muss man wissen, wie mit personenbezogenen Informationen verfahren wird, also ob diese etwa als Trainingsdaten verwendet werden. Ein Basiswissen im Bereich der Künstlichen Intelligenz ist meines Erachtens unabdingbar, um Chancen und Risiken realistisch einschätzen und darauf basierend eine bewusste Vertrauenshandlung eingehen zu können.

  3. Welche Rolle kommt hierbei den Unternehmen insbesondere im Hinblick auf Transparenz und Verständlichkeit zu? Gibt es eventuell aus Ihrer Sicht Möglichkeiten, Künstliche Intelligenz verständlicher oder transparenter zu machen?

    Die Unternehmen sind zur Transparenz dahingehend gefordert, wie ihre Modelle trainiert und welche Quelldokumente hierfür genau verwendet wurden. Ferner müssen die Unternehmen offen kommunizieren, wie mit den Eingabedaten der Nutzer umgegangen wird. Selbstverständlich handelt es sich beim maschinellen Lernen nicht um simple Prozesse, dennoch gilt, diese angemessen zu simplifizieren und das KI-Wissen in der Bevölkerung zu stärken. An den Universitäten sind wir ebenfalls gefordert, die KI-Kompetenzen von Lehrenden und Studierenden zu stärken. Beide Gruppen müssen mit den Funktionsweisen, Nutzungsmöglichkeiten und darauf aufbauend eben auch mit den Risiken verschiedener KI-Systeme vertraut gemacht werden.

  4. Sollte Künstliche Intelligenz Ihrer Meinung nach noch menschenähnlicher gestaltet werden?

    Diese Frage erfordert eine sorgfältige Abwägung. Einerseits kann eine menschen-ähnlichere Künstliche Intelligenz die Interaktion mit der Technologie intuitiver und angenehmer gestalten, andererseits birgt eine allzu menschenähnliche Gestaltung von KI-Systemen das Risiko, die Grenzen zwischen menschlichen und maschinellen Akteuren dergestalt zu verwischen, dass Nutzer am Ende nicht mehr im Bewusstsein haben, dass sie mit einer Technologie interagieren, die eben von einem Unternehmen mit ganz spezifischen Interessen entwickelt wurde. Es kommt also ganz entscheidend auf eine transparente Kommunikation an, Nutzende müssen sich stets darüber im Klaren sein, ob sie es mit einem Menschen oder einer Maschine zu tun haben, denn daran orientieren sich Erwartungshaltung und wahrgenommene Vertrauenswürdigkeit. Last but not least stellt sich im Bereich der Künstlichen Intelligenz die Frage, ob wir alles, was wir können, auch wirklich wollen. Denken Sie beispielsweise an digitale Chatbots oder Avatare von Verstorbenen, mit denen Hinterbliebene kommunizieren können. Solche Entwicklungen müssen auf jeden Fall ethisch hinterfragt werden, so etwa hinsichtlich des sogenannten „Digital Afterlife“ von Verstorbenen und dessen Auswirkungen auf die Trauerarbeit.

Themen

Regionen

Kontakt

  • Univ.-Prof. Dr. Martin K.W. Schweer
    Univ.-Prof. Dr. Martin K.W. Schweer
    Lizenz:
    Nutzung in Medien
    Dateiformat:
    .jpg
    Copyright:
    Universität Vechta
    Dateigröße:
    6000 x 4000, 9,85 MB
    Download

Zugehörige Meldungen

  • Vertrauen als zentrale Ressource eines demokratischen Miteinanders

    Vertrauen als zentrale Ressource eines demokratischen Miteinanders

    Am 11.06.2024 hat Univ.-Prof. Dr. Martin K.W. Schweer über Vertrauen als zentrale Ressource eines demokratischen Miteinanders im Rahmen der öffentlichen Ringvorlesung der Universität Vechta zum Thema Die pluralistische Gesellschaft und ihre Anfeindungen - Risiken, Herausforderungen und Gegenstrategien gesprochen Angesichts der Ergebnisse der Europawahl ...

  • Vertrauen kann schnell verschwinden, besonders im Krieg. Darüber forscht das ZfV | © Caleb Woods, Unsplash.com

    Wie man Vertrauen in Kriegszeiten zurückgewinnt | 25 Jahre Zentrum für Vertrauensforschung in Vechta

    Zusammenleben ist Vertrauenssache: Das Phänomen stellt eine der wichtigsten Kräfte für unseren Alltag dar. Ereignisse wie der Krieg gegen die Ukraine löschen diese bindende Kraft aber auf einen Schlag aus. Wie lässt sich Vertrauen jetzt wieder aufbauen? Solchen Fragen geht das Zentrum für Vertrauensforschung in Vechta nach. Es ist einzigartig in Deutschland – und feiert nun sein 25-jähriges Jubilä