Woher kommt Misstrauen und Vertrauen, wenn wir disruptive Technologien nutzen

(Live Blogging) Sehr starke Referentinnen heute an der #shift2019. Adrienne Fichter und Sybille Peuker sprechen über Vertrauen und Misstrauen bei der Nutzung disruptiver Technologien.

Berechtigtes Misstrauen

Adrienne spricht über Missbräuche und sagt; „das sind ganz klar auch Geschäftsmodelle grosser globaler Player (Technologieriesen)“. Das sollte endlich aufhören.

Vertrauensbruch durch Tech-Giganten sind wir gewohnt. Hier kann man diese nachlesen. Inoffiziell weiss man, dass Netflix und Facebook Deals haben für Datenzugriffe, gegen Werbeplätze.

Offiziell hat Mark Zuckerberg gesagt, dass jeder alle FB Daten herunterladen kann. Damit gemeint, ist nicht nur das Herunterladen innerhalb der Plattform sondern zusätzlich alle Apps und das Tracking von Websites via FB-Pixel. FB ist zu gross, um Datenschutzgesetze einhalten zu können.

ADM Algorithmusbasierte Entscheidungssysteme

Algorithmusbasierte Entscheidungssysteme (ADMs) bilden einen Oligopol (Google, FB, Amazon) und werden immer mächtiger (wegen Netzwerkeffekten). Hier fehlt die Nachvollziehbarkeit und es gibt keine rechtlichen Grundlagen. Nach dem Update in der Schweiz ist das hoffentlich besser.

 

Automatische Entscheidungsprozesse sind fehlerhaft. Ein Beispiel dafür ist etwa Schweden und Arbeitslosenausbezahlung. Ein Problem ist die Intransparenz. Wir wissen selten, wann und wo ADMS im Einsatz sind. Ein weitere Fehlerquelle sind falsche Trainingsdatensätze. Im Beispiel waren nur „weisse Menschen“ berücksichtigt.

Wir haben in der Schweiz noch kein Algorithmen/Code Auditing institutionalisiert.

Die Debatte der Hackerin Sarah Jamie Lewis, die den Code der Schweizer Post genauer angeschaut hat (bzw. diesen, bevor er öffentlich zur Verfügung gestellt wurde, „gehackt“ hat), findet auf Twitter statt und das sollte offengelegt werden.

Adrienne möchte erreichen:

Die Debatte um eVoting ist dabei ein erster Schritt. Der Quellcode ist semi-open und Zertifizierungsschritte und die Tech-Community ist involviert.

Danach spricht Sibylle Peuker von Zeix (Zeix beschäftigt sich schon seit gefühlt 20 Jahren mit User Experience. Heute spricht sie über UX von AI):

Vertrauen

Sie möchte zeigen, dass wir unser Handy nicht abgeben würden, aber Menschen vor laufender Kamera sogar ihr Passwort verraten. Sie stellt die Frage: „Vertrauen in was?“ und stellt fest: *Wir müssen über Vertrauenswürdigkeit sprechen“

Wie entscheiden wir, ob jemand vertrauenswürdig ist?

Kompetent

Was bedeutet das aus Usersicht? Bei Alexa wissen Menschen nicht, was sie fragen sollen. Die Erwartung ist hier am Anfang zu hoch. Folglich ist das Erwartungsmanagement für die Kompetenz wichtig.

Zuverlässig

Unter welchen Umständen trauen User einer automatisierten Diagnose? Hier nennt Sibylle ADA Health als Beispiel. Menschen testen die Gesundheits-App erstmals mit bestehenden Diagnosen, die sie bereits kennen.
Was ist dabei für den User wichtig (Mehrwert, relevant, vollständig, in Zeit)? Besonders Transparenz und die Frage, wie herausgefunden wird, wer beispielsweise ausgeschlossen wird.

Sibylle empfiehlt: „Nachdenken, Team sensibilisieren und ernstgemeinte Feedback-Möglichkeiten der User“

Wie kann eine HR-Chefin sich auf den AI Mitarbeiter verlassen? Wenn man auf existierenden Daten und mathematischen Modellen, die auf Erfahrungen basieren, vertraut, kann das zu Fehlern führen. Sind Kriterien (Algorithmen) wiederum transparent, laden sie auch zum Austricksen ein.

Ein Algorithmus ist oft eine in Code gegossene Meinung.

Was ist wenn sich diese Meinung mal ändert? Menschen kann man leichter umlernen als ein selbstlernendes System. Wir sollten überprüfen, ob die Maschine mit der eigenen menschlichen Ansicht übereinstimmt.

Ehrlich:

AI Systeme überschätzen sich selbst.

Die Lösung kann aber kaum sein, AI zu programmieren, die Privacy Policies für uns lesen. Sondern

Kommentar schreiben

Du kannst folgendes HTML verwenden: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>