|
|
|
|
Liebe Leserinnen und Leser, Apophänie – zugegeben: auch wir mussten das Wort nachschlagen – ist die Neigung, Muster zu erkennen, wo gar keine sind. Und dann irgendwelche wilden Zusammenhänge herbeizufantasieren. Ende des 18. Jahrhunderts vermaß man den Schädel und schloss von den Knochen auf den Charakter. Phrenologie hieß das, noch so ein Nachschlagewort. Heute soll künstliche Intelligenz am Gesicht und an der Stimme erkennen, ob jemand vertrauenswürdig ist oder unbeobachtet das Tafelsilber mitgehen lässt. Oder einschätzen, wie sie oder er gerade drauf ist. Das ist zwar derselbe Unsinn wie seinerzeit die Schädelanalyse. Doch es kommt immer mehr in Mode, zum Beispiel in Personalabteilungen. Geht gar nicht, findet Ihre |
|
Inhalt: |
|
Überall KI |
|
Auf den Hintergrund kommt es an Ein Experiment des Bayerischen Rundfunks hat gezeigt, was von solchen Erwartungen zu halten ist. Bewerbungsgespräche sollen mit der Software eines Münchner Startups fairer und objektiver sein. Schneller sowieso. „Laut Angaben der Entwickler der Software analysiert die Künstliche Intelligenz Stimme, Sprache, Gestik und Mimik und erstellt so ein verhaltensbasiertes Persönlichkeitsprofil“, heißt es dazu auf der Website des BR. Eine Schauspielerin spricht immer denselben Text. Trägt sie dabei eine Brille, hält die Software sie für weniger diszipliniert. Mit Kopftuch ist sie plötzlich innovativer, pflichtbewusster und erheblich belastbarer. Noch krasser ist der Unterschied, wenn der Hintergrund verändert wird: einfach ein Bild aufhängen oder ein Bücherregal zeigen, und schon ist der Proband viel weniger konventionell und deutlich energischer. |
|
Gefühle
zeigen Forscher*innen in Bamberg und Erlangen arbeiten an Robotern, die am Gesicht erkennen, ob jemand Schmerzen hat. Mit denen sollen dann zum Beispiel autistische Kinder lernen, was andere fühlen. Das funktioniere bereits, schreiben die Nürnberger Nachrichten. Für schmerzverzerrte Gesichter mag das stimmen. Aber bei den Emotionen, die Psycholog*innen für Charakteranalysen verwenden? Auf einer Website der Uni Cambridge können Sie testen, was von emotionserkennender Software zu halten ist. Verziehen Sie vor der Kamera das Gesicht – Mundwinkel rauf, Mundwinkel runter, Stirn runzeln, blinzeln –, berechnet die Software, ob Sie glücklich oder traurig sind, ängstlich oder überrascht, angeekelt oder wütend. Sie werden sehen: Das System lässt sich mühelos überlisten. In den USA hilft derartige Technik schon bei der Auswahl von Bewerber*innen. Kein angenehmer Gedanke, dass sie auch bei uns über Lebenschancen entscheiden könnte. |
|
Echt jetzt? Für beinahe jede Lebenslage gibt es heute eine Maschine. Die Interaktionsdesignerin Michal Luria hat nun einen sozialen Roboter für negative Gefühle erfunden. Niemand braucht mehr ins Kopfkissen zu beißen oder Omas schöne alte Suppenterrine zu zerdeppern. An Lurias „kathartischen Objekten“ kann man sich abreagieren, ohne wirklich etwas kaputt zu machen. Man sticht mit langen Nadeln in eine Art Kissen, beschimpft eine Glühlampe oder schlägt eine Puppe. Wenn es hilft … |
|
Ihre Hinweise auf Veranstaltungen zur
Digitalisierung greifen wir gerne auf. Bitte per
E-Mail an die Redaktion. |
|
An- und abmelden |
|
BayernUp2Date als PDF |
|
Verantwortlich: Hans Sterr, ver.di Bayern, Neumarkter Str. 22, 81673 München Tel. +49 89 59977 421, hans.sterr@verdi.de, https://bayern.verdi.de Redaktion: Ursula Walther, uwa-bayernup2date@web.de Für diesen Newsletter gilt die ver.di-Datenschutzerklärung. |