Persönliche Gesundheit

Psychologe über Corona-Pandemie: Dürfen uns nicht nur auf ein Risiko konzentrieren

Der Mensch trifft häufig irrationale Entscheidungen, sagt Psychologe Gerd Gigerenzer. In den meisten Fällen fehle, was er Risikokompetenz nennt. Ein Gespräch über die Pandemie, künstliche Intelligenz und warum Facebook ein Café ist, in dem niemand für den Kaffee zahlen muss.

Herr Gigerenzer, in Ihrem neuen Buch berichten Sie von künstlichen Intelligenzen, die – mehr oder weniger zuverlässig – vorhersagen können, wann die nächste Grippewelle ausbricht und wo der nächste Mord stattfinden wird. Was halten Sie davon, dass wir uns die Zukunft von Algorithmen vorsagen lassen?

Gerd Gigerenzer: Firmen bieten mittlerweile Algorithmen für fast alles an. Es ist wichtig zu verstehen, dass komplexe Algorithmen in Form von neuronalen Netzwerken für bestimmte Probleme funktionieren und für andere nicht. Ein Computer kann beispielsweise einen Menschen im Schach schlagen, denn hier gelten heute die gleichen Regeln wie morgen. Wenn es aber darum geht, die Grippe vorherzusagen oder Covid-19, oder das Verhalten von Menschen, dann funktionieren diese komplexen Algorithmen nicht so gut. Viele ganz einfache Algorithmen ebenso wie Experten sind da in der Regel besser und auch schneller. imago/Future Image/FOL

Über den Experten

Gerd Gigerenzer ist Psychologe, Direktor emeritus am Max-Planck-Institut für Bildungsforschung und Direktor des Harding Zentrums für Risikokompetenz. Er hat zahlreiche Auszeichnungen erhalten, unter anderem den Deutschen Psychologie-Preis.

Können Sie das genauer erläutern? In welchen Bereichen können wir auf Algorithmen vertrauen und wo nicht?

Gigerenzer: Ich nenne es "das Prinzip der stabilen Welt". Wenn Sie eine stabile Welt haben wie beim Schach, Go oder vielen anderen Spielen, werden uns Algorithmen weit überlegen sein. Wenn man es mit Ungewissheiten zu tun hat, werden jedoch komplexe Algorithmen nicht gut funktionieren – zum Beispiel bei der Gesichtserkennung. Nach dem Anschlag am Berliner Breitscheidplatz hat der Innenminister eine Studie durchführen lassen, bei der Kameras zur Massenüberwachung mit Gesichtserkennung am Bahnhof Südkreuz installiert waren. Am Ende hat er mit einer Presseerklärung den großen Erfolg verkündet: Die Trefferrate lag bei 80 Prozent, es wurden also 80 Prozent aller Verdächtigen richtig erkannt und nur ein kleiner Rest übersehen. Die Falschalarm-Rate lag bei 1 in 1000: Von 1000 normalen Bürgern wurde nur einer falsch verdächtigt. Das klang zunächst wie eine Erfolgsmeldung.

Würde man das System an allen Bahnhöfen einführen, was würde dann passieren? Es sind etwa zwölf Millionen Menschen jeden Tag an deutschen Bahnhöfen unterwegs. Bei dieser Falschalarm-Rate würde das bedeuten, dass täglich fast 12.000 Menschen falsch verdächtigt werden. Sie werden angehalten, kontrolliert, ihre Identität wird festgestellt. Das würde so viele Polizisten in Anspruch nehmen, dass die Polizei ihren eigentlichen Aufgaben nicht mehr nachkommen können.

Gesichtserkennung als Massenüberwachung funktioniert nicht, aber bei stabilen Problemen funktioniert sie: Wenn Sie zum Beispiel Ihr Smartphone mit Ihrem Gesicht entsperren. Hier wird immer wieder das gleiche Gesicht mit einem Bild verglichen, nicht Millionen von Gesichtern mit hundert oder tausend Verdächtigen. Oder bei der Identifikation eines einzelnen Täters. Wenn etwa in der U-Bahn ein Mensch sitzt, von dem man weiß, dass er eine Tat begangen hat, und man diesen Menschen identifizieren will.

 

Wenn die Wirksamkeit eines Impfstoffs mit 90 Prozent angegeben wird, dann wirkt er eben in zehn Prozent der Fälle nicht. Das zu verstehen ist der erste Schritt. Und der zweite ist es, mehrere Risiken abzuwägen und sich nicht nur auf ein Risiko zu konzentrieren, also statistisch zu denken. Sich zu überlegen: Wenn ich mit der Impfung abwarte, ist das Risiko, dass ich mich in der Zwischenzeit infiziere und dann auf der Intensivstation um mein Leben kämpfe, höher als das Risiko der Impfung?

Sie plädieren dafür, dass wir die Kontrolle über unser Leben nicht komplett an Computer und künstliche Intelligenzen abgeben sollten. In welchen Bereichen verzichten Sie persönlich ganz bewusst auf KI, wo andere blind darauf vertrauen?

Gigerenzer: Ich benutze natürlich für meine wissenschaftlichen Arbeiten das Internet, aber ich versuche, mich bei Sozialen Medien zurückzuhalten und diese nur zu nutzen, wenn ich zum Beispiel mit meiner Familie kommuniziere, die zum größten Teil in den USA lebt.

Aus welchem Grund?

Gigerenzer: Das Problem liegt nicht in der Technik, sondern in den Geschäftsmodellen dahinter. Eines heißt: Zahl mit deinen Daten! Wir marschieren schlafwandelnd in eine Überwachungsgesellschaft. Politik und Bürger gemeinsam, weil wir zulassen, dass diese Geschäftsmodelle dazu führen, dass wir in einer Art und Weise überwacht werden, die es bislang noch nicht gegeben hat – und zwar sowohl kommerziell und auch staatlich. Das muss aber nicht sein, denn es gibt eine Alternative: Zahl mit deinem Geld!

Das machen wir auch, wenn wir in ein Café gehen. Wenn man zum Beispiel Facebook den gesamten Umsatz erstatten würde, den es mit unseren persönlichen Daten erwirtschaftet, müsste jeder Nutzer im Monat nur etwa zwei Euro bezahlen. Das kann man leicht ausrechnen. Würde jeder zwei Euro zahlen, könnte Herr Zuckerberg genauso reich werden, ohne personalisierte Werbung und Tausende von Psychologen und Ingenieure, die sich damit beschäftigen, wie man die Schwächen von Menschen so nutzen kann, dass sie länger auf einer Plattform bleiben

In Ihrem Buch erwähnen Sie, dass die wenigsten bereit sind, diese zwei Euro zu bezahlen. Wie erklären Sie sich, dass wir längst wissen, wie Firmen unsere Daten abgreifen, und wir unsere Privatsphäre trotzdem nicht besser schützen?

Gigerenzer: Richtig, wir haben in einer Umfrage festgestellt, dass 75 Prozent der Deutschen nicht bereit sind, auch nur einen Cent für ihre Privatsphäre zu bezahlen. Gleichzeitig ist über die letzten Jahre hinweg die größte Angst, die Menschen in Deutschland in Bezug auf Digitalisierung haben, dass ihre persönlichen Daten an Dritte gelangen und sie nicht wissen, was mit ihnen passiert. Das nennt man das Privatheitsparadox.

Können Sie dieses Paradoxon näher erklären?

Gigerenzer: Ich verwende mal das Bild von einem Gratis-Café: Stellen Sie sich vor, in einem Café in der Stadt gibt es Kaffee, für den Sie nicht bezahlen müssen. Nach kurzer Zeit sind alle anderen Cafés ruiniert, es ist nun der einzige Ort, an dem Sie Ihre Freunde treffen können. Sie verbringen schöne Stunden dort, aber in den Tischen sind Abhöranlagen eingebaut und über Ihnen hängen Videokameras, die alles aufzeichnen, was Sie sagen und tun. Und außerdem sind die Räume voll von Vertretern, die Ihnen personalisierte Werbung anbieten. Diese Vertreter sind die Kunden des Cafés, nicht Sie. Ihre Aufmerksamkeit ist die Ware. Das ist so wie Facebook funktioniert.

Das könnte man beenden, wenn man wieder ein Café hätte, in dem man selbst bezahlt. So wäre man wieder Kunde. Wenn man nicht bezahlt, ist man die Ware.

Ein ganz konkreter Tipp für Nutzer wäre also: Bezahlt für Dienste, um eure Privatsphäre zu schützen! Was können wir noch tun, um die Kontrolle über unser Leben zu behalten und sie nicht an Maschinen abzugeben?

Gigerenzer: Es gibt vieles, was wir tun können. Hier ist aber nicht nur der Nutzer gefragt, wir brauchen im Wesentlichen auch einen Staat, der Verantwortung übernimmt und nicht einfach den Lobbyisten der Tech-Industrie genehm ist. Als ich im Sachverständigenrat für Verbraucherfragen des Bundesministeriums für Justiz und Verbraucherschutz war, haben wir ganz konkrete Maßnahmen vorgeschlagen.

Ein Beispiel: Wenn Sie auf eine Website gehen, wird von Ihnen verlangt, die Nutzerbedingungen zu lesen und ihnen zuzustimmen. Haben Sie mal versucht, die zu lesen? Sie sind so lang und unverständlich geschrieben, dass man schnell aufgibt. Wir müssen also uninformiert einwilligen. Und die Zustimmung ist rechtlich bindend! Studien zeigen, wenn sich jeder informieren und diese langen Texte lesen würde, dann würde man dafür im Schnitt 30 Arbeitstage pro Jahr brauchen – das ist unwürdig.

Ihre These ist vermutlich: Wenn Unternehmen wollten, könnten sie diese Texte auch kürzer und verständlicher formulieren.

Gigerenzer: Genau. Unser Vorschlag im Sachverständigenrat war, dass alle AGB maximal 500 Wörter enthalten dürfen und verständlich sind. Sodass Nutzer überhaupt die Chance haben, sie zu lesen und zu verstehen. So könnte man die Menschen aus der Situation befreien, 30 Arbeitstage zu investieren oder immer nur uninformiert zuzustimmen. Das ist aber noch nicht passiert. Es gibt ein paar Firmen, die diesem Vorschlag freiwillig gefolgt sind.

In dem Fall bin ich als Nutzer darauf angewiesen, dass sich die Rahmenbedingungen ändern. An welchem Punkt kann ich selbst ansetzen, um mehr Kontrolle zu behalten?

Gigerenzer: Der Einzelne kann natürlich auch etwas tun: etwa Politiker wählen, die sich für solche Themen einsetzen. Außerdem müssen wir endlich in den Schulen anfangen, digitale Risikokompetenz zu lehren. Studien zeigen, dass 97 Prozent aller Digital Natives nicht die Techniken kennen, mit denen sie herausfinden könnten, ob eine Website vertrauenswürdig ist oder nicht. Dabei kann jeder diese Techniken lernen, man nennt es "laterales Lesen".

Nehmen wir an, eine Website möchte Sie dazu bringen, etwas zu spenden. Wie finden Sie heraus, wer und welche Interessen dahinterstecken? Die meisten Digital Natives versuchen, das herauszufinden, indem sie die Website durchlesen oder schauen, ob sie cool aussieht. Das ist eine veraltete Technik. Laterales Lesen bedeutet: Sie verlassen die Website und versuchen, über andere Seiten zu erfahren, wer und was dahintersteckt. Wir brauchen nicht nur smarte Technik, sondern auch smarte Menschen, die sie nutzen können.

Einfacher Beeren-Streuselkuchen mit Pudding und Amaretto – saftig und vielfältig

Esslust Einfacher Beeren-Streuselkuchen mit Pudding und Amaretto – saftig und vielfältig

Quelle: Den ganzen Artikel lesen