Nach einer Einführung zum Thema künstliche Intelligenz beim vorletzten Digitalk, wurden bei der Veranstaltung am 26.02.2020 die Auswirkungen künstlicher Intelligenz auf die Gesellschaft diskutiert. Durch den Abend führte Werner Illsinger, Präsident der Digital Society.

Mit dabei waren dieses Mal:

Mag. iur. Carina Zehetmaier, E.MA
Women in AI-Botschafterin Ö, Diplomatie-, Rechts- und Politikberaterin 
Anwältin mit 
mehrjähriger Erfahrung in internationalen Organisationen und auswärtigen Angelegenheiten; Leidenschaft für neue Technologien, insbesondere künstliche Intelligenz und die Verknüpfung mit Recht, Ethik und Politik.

(Foto: Sekretär in der Ständigen Vertretung Österreichs in Genf, Datum unbekannt) 

Mmag. Viktor Fleischer 
Experte für berufliche Bildung, Bildung & Gesellschaft, Industriellenvereinigung
Studium Soziologie und Religionswissenschaft. Experte für berufliche Bildung im Bereich Bildung & Gesellschaft der Industriellenvereinigung. Digitalisierungsthemen aus bildungs- und gesellschaftspolitischer Sicht. (Foto: IV)

Astrid Schöggl
Referentin für Digitalisierung, AK Wien 
Studium Socio-Ecological Economics an der Wirtschaftsuniversität Wien,  Themen Plattformökonomie, sowie Ökologie und Digitalisierung. Referentin im Programm „Arbeit im digitalen Wandel“ der Arbeiterkammer Wien, zu dem auch der Digitalisierungsfonds Arbeit 4.0 gehört, Themen künstliche Intelligenz und Gerechtigkeit, Datenökonomie und algorithmische Diskriminierung. (Foto: Erwin Schuh) 

Michael Katzlberger 
CEO TUNNEL23
Gründer und Geschäftsführer von TUNNEL23, einer der führenden, unabhängigen digitalen Kreativagenturen in Österreich. Innovative Projekte zur Weiterentwicklung digitaler Werbeformen sowie künstlicher Intelligenz in der Kreativbranche. Thema: KI entmystifizieren. (Foto: Wolfgang Pohn)

 

Künstliche Intelligenz (KI) – welche Potenziale kann diese Technologie entfalten?

„Wie wollen wir künstliche Intelligenz klar definieren, wenn wir lediglich eine ungenaue Vorstellung von natürlicher Intelligenz haben?“. Diese Formulierung von Fleischer (Industriellenvereinigung) unterstreicht die große Schwierigkeit, eine genaue Definition von KI zu formulieren. Tatsächlich stößt man bei dem Versuch, künstliche Intelligenz einheitlich zu definieren zunächst an seine Grenzen.

Der fehlende Konsens führt zu einer Vielzahl von Definitionen, was den Begriff der Künstlichen Intelligenz noch vager macht. Zusammenfassend kann KI als eine ständig wachsende Zahl neuer Technologien definiert werden, die in der Lage sind, neues Wissen aus vorhandenen Daten zu generieren.

Digitale Technologien durchdringen unser Leben immer mehr und eröffnen dabei ungeahnte Möglichkeiten. Schöggl (AK Wien) verweist auf die vielfältigen Einsatzzwecke der Schlüsseltechnologien, speziell in der Beschäftigung. So können den Menschen unangenehme wie auch gefährliche Tätigkeiten abgenommen. Beispiele hierfür sind die Bombenentschärfung durch Roboter, aber auch die selbstfahrende U-Bahn, die darauf abzielt, Unfälle mit menschlichen Opfern zu minimieren.

Transparenz als Grundlage für die Nachvollziehbarkeit automatisierter Systeme

Jedoch wirft das Fehlen einer präzisen Definition und das fehlende Wissen über die KI-Entwicklung viele Fragen über ihren Einsatz und die damit verbundenen Risiken auf. Zum Beispiel ist der Entscheidungsprozess künstlicher Intelligenz immer noch sehr undurchsichtig. Tatsächlich sind die Entscheidungen und Resultate automatisierter Systeme oft nicht nachvollziehbar. Dies liegt daran, dass derzeitige KI-Systeme als Blackbox funktionieren. Die Systeme werden mit bestimmten bekannten Ein- und Ausgangsdaten trainiert, der eigentliche Lernprozess bzw. wie dann das Wissen in der KI gespeichert ist bleibt jedoch undurchsichtig und für Menschen nicht nachvollziehbar.

Als essenziel für eine Nachvollziehbarkeit KI-basierter Entscheidungen sieht Zehetmaier die Bewusstseinsschaffung für das KI-Thema in der Gesellschaft. So wird es zukünftig notwendig sein, Entscheidungen von Maschinen stärker zu hinterfragen und Erklärungen zu fordern. Schließlich ist auch Technik nicht ohne Fehler. Je nachdem mit welchen Daten eine KI trainiert wurde, kann diese auch rassistisch oder sexistisch verzerrte Entscheidungen treffen. Daher können automatisierte Entscheidungen auch das Risiko der Diskriminierung bestimmter Personengruppen bergen – wie am Beispiel des AMS-Algorithmus oder der Verwendung von Algorithmen im Personalbereich allgemein diskutiert wurde. Algorithmen spiegeln dabei lediglich die Vorurteile der sie trainierenden Menschen wider.

Katzlberger erwähnt dazu den Google-Skandal: Eine Bilderkennung klassifizierte farbige Frauen als Gorillas, da zu wenig Trainingsmaterial für farbige Frauen vorlag. Aus diesem Grund ist es wichtig automatisierte Systeme diskriminierungsfrei zu gestalten und zu regulieren.

Laut Fleischer gibt es bereits technische Konzepte zur Erklärung und Nachvollziehbarkeit KI-basierter Entscheidungen. Allerdings sei es nicht möglich, aus der aktuellen Situation Rückschlüsse auf die Zukunft zu ziehen, da die technologische Entwicklung überraschende Sprünge mache. Für Schöggl ist eine Offenlegung von Algorithmen in der Praxis schwierig, da in diesen auch die Geschäftsgeheimnisse der Konzerne liegen.

Neben der Transparenz und Nachvollziehbarkeit KI-basierter Entscheidungen spiele auch die Datenmenge eine bedeutende Rolle, hieß es aus dem Publikum. So brauche man ausreichend unverfälschte Daten, damit die Repräsentativität der Datenmenge gewährleistet ist.

Nach welchen Kriterien entscheiden automatisierte Systeme?

Der gemeinsame Tenor lautet, den Einsatz künstlicher Intelligenz zu fördern, jedoch müssten auch ethische Regeln für eine reibungslose Verwendung aufgestellt werden.

Zehetmaier (Women in AI) verweist auf Sicherheitsvorkehrungen, welche bei der Anwendung von KI notwendig sind. Sie kann sich eine Art TÜV zur Risikobewertung der KI-Anwendung vorstellen. Zudem sollten tödliche autonome Waffensysteme aus moralischen, ethischen und rechtlichen Bedenken verboten sein, wie dies in Österreich der Fall ist.

Auch unser Justizsystem könnte durch die fortschreitende Verwendung von KI einen großen Umbruch erfahren. Wurden bisher Strafbarkeit und Schuld im Nachhinein beurteilt, so müssen wir uns nun bei intelligenten Maschinen im Vorhinein überlegen, wie diese in bestimmten Situationen entscheiden sollen. Ein vielfach diskutiertes Beispiel hierfür stellt das selbstfahrende Auto dar. Nach welchen Kriterien soll ein selbstfahrendes Auto entscheiden, wer im Falle eines Unfalls geschädigt wird?

Katzlberger (TUNNEL23) wirft ein, dass es unmöglich sei, moralisches Verhalten im Voraus festzulegen. Bei selbstfahrenden Autos könnten moralische Entscheidungen beispielsweise durch Zufallsentscheidungen ersetzt werden. Das Beispiel des selbstfahrenden Autos zeigt, dass die Entwicklungen im KI-Bereich nicht nur ethische, sondern auch rechtliche Fragen aufwerfen. „Wer entscheidet darüber, welche Entscheidungen eine KI trifft?“, stellt Schöggl die Frage in den Raum.

Das Recht hinkt der Technologie hinterher

Gemeinsamer Tenor ist, dass die Akzeptanz von KI durch Regulierung gesichert werden sollte. Nur wie könnte eine solche Normierung aussehen? Eine einheitliche Regulierung sei schwierig, da der KI-Einsatz auch stark kulturell bedingt sei (Unterschiede Europa, USA, China). Die Datenschutzgrundverordnung erfülle dabei erste regulatorische Anforderungen auf europäischer Ebene, so Zehetmaier. Katzlberger führt hingegen an, dass die DSGVO eher die KI-Entwicklung hemme, wegen der Angst vor Datenschutzverstößen.

Eine rege Diskussion entbrennt auch in Bezug auf die Thematik, ob juristische Entscheidungen durch KI verbessert werden könnten. So zeigen Studien, dass Richter vor und nach dem Mittagessen überschiedlich über denselben Sachverhalt entscheiden. Der Vorteil einer KI wäre, dass diese objektiv entscheiden und bei gleichen Trainingsdaten auch zwei Mal die gleiche Entscheidung treffen kann.

Eines der größten Risiken in Verbindung mit der Nutzung von KI betrifft die Frage der Haftung. Wer soll für KI-basierte Entscheidungen haften? Bei der Frage, ob KI-Systemen eine eigene Rechtspersönlichkeit zugesprochen werden soll, verweist Zehetmaier darauf, dass eine KI strafrechtlich nicht handlungsfähig ist. Schließlich besitzt eine KI kein Bewusstsein. Im White Paper der Europäischen Kommission wird auf die EU-Produkthaftung bei KI-Systemen hingewiesen.

Katzlberger verdeutlicht die Thematik der Urheberschaft anhand eines Beispiels: Wenn eine Maschine beginnt, selbst Dinge zu entwerfen, wer ist am Ende der Schöpfer?

Begriff Arbeit neu denken

Die Frage, ob uns in Zukunft Arbeitsplatzverlust droht, weil Roboter unsere Jobs übernehmen ist legitim. Arbeit wird es immer geben, darin sind sich die Podiumsteilnehmer einig. „Vermutlich werden weniger Menschen arbeiten. Dies bedeutet aber auch mehr Freizeit.“, so Katzlberger. Laut Schöggl sollte der Terminus gelockert werden und Arbeit ebenso Kreativarbeit wie Reparaturcafés oder Aufräumtätigkeiten miteinschließen.

Fleischer wirft an dieser Stelle ein, dass Arbeitsplätze auch in der Vergangenheit nie weniger geworden seien. Wieso sollte es jetzt passieren? Fleischer ist der Meinung, dass in Zukunft neue Berufsbilder entstehen würden, welche wir uns jetzt noch gar nicht vorstellen könnten.

Schöggl ergänzt, dass die zukünftige Organisation unserer Gesellschaft eine bedeutende Rolle spielen werde. Könnte das bedingungslose Grundeinkommen eine Antwort auf die sich wandelnde Arbeitswelt sein? Fest stünde jedenfalls, dass wir durch eine technologisch bedingte Abnahme von Arbeitsmöglichkeiten mehr Mut zur Arbeitslosigkeit haben sollten. Auch Katzlberger ist überzeugt, dass unsere Gesellschaft sich besser entwickeln würde, wenn wir nicht gezwungen wären, zu arbeiten. Ein wichtiges Zukunftsthema werde die Maschinensteuer sein, um den Ausfall der Einkommensteuer zu kompensieren. Schöggl plädiert dafür, KI-Effizienzgewinne den Menschen zugutekommen zu lassen, schließlich würden diese auch KI-Systeme trainieren.

Zentraler Erfolgsfaktor „Bildung“ im Kontext der Digitalisierung

Die Bildung spiele eine wichtige Rolle bei der KI-Entwicklung, indem sie das Verständnis für die Risiken, aber auch Chancen der Digitalisierung fördere. Von den Erwerbstätigen werde lebenslanges Lernen gefordert. Dabei sei ein Zusammenspiel aller Akteure gefordert (AG, AN, Politik). Zehetmaier appelliert an die Gesellschaft, mehr Frauen für den technischen Bereich zu begeistern, um keinen männlichen Bias zu perpetuieren. „Wir müssen Entscheidungen mit Diversität treffen, damit diese auch repräsentativ sind.“.

Eine weitere Idee wäre eine “Arbeitsversicherung” statt Arbeitslosenversicherung, die man in Anspruch nehmen könnte, um sich unabhängig vom Arbeitgeber weiterbilden zu können.

Optimale Nutzung künstlicher Intelligenz

Alles in allem befürwortet die Mehrheit der Podiumsteilnehmer den Einsatz künstlicher Intelligenz. Zehetmaier betont das Potenzial künstlicher Intelligenz, objektive Entscheidungen zu treffen und Diskriminierung in der Welt reduzieren zu können. Katzlberger spricht von einer „einzigartigen Erfindung für die Menschheit“. Er ist der Überzeugung, dass die Technologie uns in sämtlichen Branchen helfen und unser Leben bereichern wird. Ein weiteres wichtiges Thema werde der Energieverbrauch sein, so könne KI für diesen Zweck effizient eingesetzt werden, ergänzt Schöggl.

Fleischer appelliert an die Gesellschaft, den Mut aufzubringen, Neues auszuprobieren. Schließlich sei dies der einzige Weg, um technologischen Fortschritt zu erreichen. Bildung könne dazu beitragen, neue Einstellungen sowie Denkweisen zu vermitteln, er nennt es verändertes „mindset“.

Abschließend sind sich alle einig, dass die neue Technologie uns helfen kann, unsere Gesellschaft weiterzuentwickeln und uns zu mehr Freiheit zu verhelfen. Es sollte jedoch bedacht werden, dass nicht alles durch KI gelöst werden könne, der menschliche Geist bleibe unersetzlich.

Interessiert Sie das Thema? Sie können sich direkt online zum Thema Zukunft der Wissensarbeit einbringen, indem Sie am Whitepaper der Digital Society mitarbeiten.

Feedback und Ausblick

Wir freuen uns aber auch über Ihre Meinung zum Thema künstliche Intelligenz. Nach Ihrer Anmeldung können Sie Kommentare zu diesem und Fragen zum kommenden Digitalk hinterlassen.

Wir freuen uns ebenso über Ihre Rückmeldungen, Anregungen und Fragen auf unseren Social Media-Kanälen:

Facebook
Twitter
LinkedIn

Alternativ können Sie uns auch gerne eine E-Mail schreiben an: info@digisociety.ngo

Haben Sie schon unseren Newsletter abonniert?

Bei unserem nächsten Digitalk am 25.03.2020 diskutieren wir mit Vertreterinnen und Vertretern der Politik: „Was müssen wir als Gesellschaft tun, um künstliche Intelligenz positiv zu nutzen?“. Wir würden uns sehr freuen Sie bei dieser Veranstaltung wieder begrüßen zu dürfen.

Folgen Sie dem Link zur Anmeldung: https://digisociety.ngo/veranstaltungen/dt2020-3-ai/

 

Sie möchten uns unterstützen? Schließen Sie noch heute eine Privatmitgliedschaft oder Firmenmitgliedschaft ab und profitieren Sie von unseren exklusiven Leistungen für Mitglieder.