Adyard

Wenn das Gesicht die politische Einstellung verrät – Eine Studie mit Folgen

Wenn das Gesicht die politische Einstellung verrät – Eine Studie mit Folgen

 

Eine Studie belegt: Man kann uns unsere politische Einstellung von unserem Gesicht ablesen! Aber nicht wir Menschen können das, sondern eine sehr raffinierte KI.

Wie funktioniert das?

Michael Kosinski, Professor für Psychologie an der Stanford University in Kalifornien, dessen Forschung unter anderem schon um den Cambridge Analytica Skandal verwickelt war. Konsinski hat in seiner neuen, umstrittenen Studie Gesichter von Menschen auf verschiedenen Plattformen sozialer Medien in den USA, Kanada und Großbritannien von eines von ihm entwickelten Algorithmus untersuchen lassen, der daraufhin voraussagen konnte, ob die politische Einstellung eines Gesichts eher konservativ oder liberal ist.
Die KI ist damit treffsicherer als wir Menschen. Während wir eine 55 prozentigen Chance auf eine richtige Einschätzung haben, liegt der Algorithmus bei satten 72 Prozent. Das liegt vor allem daran, dass ein Computer andere Parameter einbezieht, als wir – und damit anscheinend auch erfolgreicher ist.

Rassismuskritik

Kosinski sah sich mit Vorwürfen des Rassismus konfrontiert, denn wenn man von der Studie zunächst hört, fühlt man sich sehr an die Phrenologie erinnert, eine Wissenschaft, die Anfang des 20. Jahrhunderts betrieben wurde und auf Grundlage der Schädelform Aussagen über Charakter, Intelligenz und Fähigkeiten von Menschen treffen wollte. Man muss wohl nicht hinzufügen, dass das rassistischen und menschenfeindlichen Vorurteilen Tür und Tor öffnete. Allerdings leugnet Kosinski den Einsatz solcher Parameter. Vielmehr benutze der Algorithmus andere Attribute.

Computer erkennen Muster – Menschen handeln

Computer sind viel mehr als wir Menschen dazu in der Lage, Muster erkennen. Was wir dann mit den gewonnen Informationen machen, ist eine andere Sache – eine äußerst politische. Auch mit seinen anderen Forschungen konnte Kosinski von bestimmten Handlungen auf Social Media Seiten Rückschlüsse auf IQ, sexuelle Orientierung oder psychische Gesundheit ziehen. Man muss nicht viel Fantasie haben, um sich moralische Probleme vorzustellen, die durch ein Programm verursacht werden könnten, das Eigenschaften von Menschen genau definiert. Die Ergebnisse der KI für bare Münze zu nehmen, sei auch falsch, da die Trefferquote mit 72 Prozent zwar hoch sei, aber mit den restlichen 28 Prozent noch einigen unsicheren Raum hat. Aber selbst bei einer 99 prozentigen Trefferquote kommt man zum selben Problem: was fängt man mit den gewonnenen Daten an?

Gesichtserkennung als politische Waffe

Natürlich laufen solche Programme immer Gefahr, für politische Zwecke instrumentalisiert zu werden. Die Verfolgung von Homosexuellen oder politisch Andersdenkenden in totalitären Staaten sind nur zwei von vielen möglichen Horrorszenarien, die die Verwendung solcher Algorithmen nach sich ziehen könnten. Aber auch in freiheitlichen Demokratien könne sie zur politischen Meinungsbildung missbraucht werden. Werbung benutzt bereits solche Algorithmen, um Vorhersagen über unser Kaufverhalten zu machen. Der Einsatz intelligenter Software ist also nichts Neues. Dennoch wäre eine solche KI in den falschen Händen sehr gefährlich.
Auch Kosinski warnt vor dem Einsatz solcher Algorithmen. Er stelle eine Gefahr für die Freiheit und Demokratie dar und könne im Handumdrehen zu einem George Orwell gleichen „Überwachungsstaat“ führen.

Spielzeugtester

Spielzeugtester mit Begeisterung   Der kleine Julian spielt naturgemäß gerne. Dieser Spieldrang ist die beste Eigenschaft, um ihn Spielzeug testen zu lassen. Auf SpielzugTester kannst