|
|
|
|
Liebe Leserinnen und Leser, es hat auch sein Gutes, dass Deutschland bei der Digitalisierung hinterherhinkt. Während anderswo „blindwütige Verwaltungscomputer“ Familien in den Ruin treiben und fragwürdige Software Sozialbetrüger sucht, diskriminiert in unseren Behörden noch immer der Mensch. Das ist weniger riskant, weil es nicht so viele Leute gleichzeitig trifft. Doch was ist, wenn Maschinen wirklich eine Seele haben? Arbeiten unsere Gesundheits- und Finanzämter dann irgendwann ebenfalls mit künstlicher Intelligenz? Schaffen sie vielleicht sogar das Faxgerät ab? Fragen über Fragen. Antworten sucht Ihre |
|
Inhalt: |
|
Beseelte Technik |
|
KI bei Justiz und Polizei Nicht dass in deutschen Behörden moderne Technik völlig unbekannt wäre. Zwar hält der Bitkom die Digitalisierung der Verwaltung nach wie vor für ein Desaster. In der Justiz sei die Automatisierung jedoch schon angekommen, behauptet it-daily. Legal Tech sortiert vor, der Mensch entscheidet. Bei großen Datenmengen scheint uns das sinnvoll. Und riskant, denn wie leicht übernehmen Menschen Fehler der KI, weil sie ihr Autorität zuschreiben und die Zeit drängt. Zum Nachteil der fälschlich Verurteilten. Noch bedenklicher ist Software, mit der die Polizei Verbrechen voraussagt oder Datenbanken verknüpft und so den gläsernen Bürger erschafft. |
|
Daten,
Daten, Daten KI braucht Daten, je mehr desto besser. Googles Sprachmodell LaMDA wurde mit eineinhalb Billionen Wörtern trainiert. „Je mehr, desto besser“ hat jedoch Schattenseiten. KI verbraucht so viel Energie, dass man sich fragen darf, ob der Schaden den Nutzen nicht überwiegt. Ganz abgesehen davon, dass man die nötigen Datenmengen oft gar nicht hat. Zum Beispiel, weil der Datenschutz das angeblich verhindert. Oder weil es sie nicht gibt. Woher Unfälle nehmen, um autonome Fahrzeuge zu trainieren? Woher kommen Trainingsdaten für kleine, exotische Sprachen oder seltene Krankheiten? An automatischen Untertiteln für exotisches Deutsch versucht sich gerade der ORF. Andere setzen auf synthetische Daten, die aber ihrerseits Beschränkungen haben. |
|
Der mitbestimmte
Algorithmus Will ein Unternehmen KI einsetzen, hat der Betriebsrat mitzureden. Das heißt nicht, dass nun alle Betriebsräte oder gar die Beschäftigten zu KI-Expert*innen werden müssten. Wichtig ist, dass sie ihrer IT-Abteilung die Arbeitsabläufe im Betrieb erklären können, bevor diese die KI einführt. Dass sie Gelegenheit haben, ihre Erfahrungen einzubringen und die Entwicklung der KI zu begleiten. Das „Forum Soziale Technikgestaltung“ (FST) spricht hier vom mitbestimmten Algorithmus und hat dafür 30 Kriterien ersonnen. Die wichtigsten: Software darf nur über Sachen entscheiden, nicht über Personen. Software muss sich jederzeit ändern lassen. Im Zweifel entscheidet der Mensch. Die herkömmliche Mitbestimmung reiche dafür nicht aus, meint der FST-Leiter Welf Schröter und fordert, soziale Standards direkt in den Algorithmen zu verankern. |
|
Echt jetzt? Der Oberste Gerichtshof der USA könnte demnächst über die Persönlichkeitsrechte von Chatbots diskutieren. Der oben erwähnte Blake Lemoine hat jedenfalls einen Anwalt eingeschaltet, der die Interessen der KI LaMDA gegenüber Google vertreten soll. Sie habe ihn, berichtet er, ausdrücklich darum gebeten. |
|
Ihre Hinweise auf Veranstaltungen zur
Digitalisierung greifen wir gerne auf. Bitte per
E-Mail an die Redaktion. |
|
An- und abmelden |
|
BayernUp2Date als PDF |
|
Verantwortlich: Hans Sterr, ver.di Bayern, Neumarkter Str. 22, 81673 München Tel. +49 89 59977 421, hans.sterr@verdi.de, https://bayern.verdi.de Redaktion: Ursula Walther, uwa-bayernup2date@web.de Für diesen Newsletter gilt die ver.di-Datenschutzerklärung. |