Die Medienschulung begann mit einer Folie, auf der Albert Einstein gezeigt wurde. Dieser sagte angeblich: Das Dumme an Zitaten aus dem Internet ist, dass man nie weiß, von wem sie stammen. Dass dies keinesfalls ein Statement von ihm sein konnte, erkannten die Jugendlichen natürlich sofort.
Fake News, so Greiner, sind falsche Nachrichten in Text-, Video- oder Bildform und damit unbewiesene Behauptungen, gezielte Desinformation oder schlichtweg manipulative Lügen. Ihr Ziel ist es, Stimmung für oder gegen eine Sache, eine Person oder Bevölkerungsgruppe zu machen und sie verbreiten sich leider über die sozialen Medien deutlich schneller als wahre Informationen. Dadurch dass sie die öffentliche Meinung beeinflussen, können sie zur Gefahr für die Gesellschaft und die Demokratie werden.
Im weiteren Verlauf stießen die Schüler durchaus auf Schwierigkeiten, Fake News von richtigen Informationen, Werbung, Satire, persönlichen Meinungen oder schlechtem Journalismus zu unterscheiden. Ihnen wurden Webseiten gezeigt und sie mussten abstimmen, in welche Kategorie die vom Referenten gezeigte Folie fiel. Danach wurde jeweils besprochen, wie man erkennen kann, um welche Art von Beitrag es sich handelt. So werden in Fake News häufig Großschreibungen und Ausrufezeichen verwendet, der Stil ist meist emotional und die Überschriften werden reißerisch formuliert. Außerdem enthalten sie keine Quellenangabe, die Informationen werden aus dem Zusammenhang gerissen und häufig werden auch alte Bilder in gegenwärtige Kontexte transferiert. Man sollte also immer hinterfragen und nachprüfen, wenn man im Netz auf zweifelhafte Inhalte stößt. Bei einer Webseite kann man beispielsweise das Impressum helfen, Ort, Datum der Veröffentlichung können aufschlussreich sein oder man kann sich bei kostenlosen Faktencheckern im Internet Auskünfte einholen. Bei Bildern kann die Rückwärtssuche bei Google Bilder zu Rate gezogen werden oder auch ein Check der Foto-Metadaten ist empfehlenswert. Auch hier bekamen die Jugendlichen interessantes Material zu sehen. Wenn beispielsweise nur ein Bildausschnitt von einer mäßig besuchten Veranstaltung gezeigt wird, suggeriert man dem Betrachter, dass eine Menschenmasse anwesend war. Außerdem können Fotos durch veränderte Lichtverhältnisse oder falsche Perspektiven zu Fake News werden. Ein Beispiel hierfür war ein Bild von Prinz William, der von vorne gesehen drei Finger hochhielt, um die Geburt seines dritten Kindes zu signalisieren. Von der Seite fotografiert, hatte es den Anschein, als zeige er den Journalisten den Mittelfinger.
Die nächste Frage des Referenten an die Schüler lautete: Was macht ihr, wenn ihr, ohne es zu wissen, eine Falschinformationen über WhatsApp weitergeleitet habt und erst später bemerkt habt, dass es sich um Fake News handelte? Die Jugendlichen meinten zu Recht, dass man dem Empfänger und dem Absender Bescheid geben und die Nachricht melden sollte. Da auf Social-Media-Plattformen keine redaktionelle Prüfung stattfindet und keine Konten angegeben werden müssen, tummeln sich die Fake News förmlich auf TikTok & Co. Außerdem sind die Nutzer von sozialen Netzwerken so genannten Filterblasen ausgesetzt. Das heißt, dass die Informationen, die jemand bekommt, vorher mit Hilfe von Algorithmen ausgesiebt werden. Man kriegt nur das zu sehen, was einen vermeintlich interessiert und man wird dadurch immer mehr bestärkt. Dies kann ebenfalls gefährlich sein, wenn sich jemand in eine bedenkliche Richtung bewegt und dadurch permanent in seiner Meinung bestätigt wird. Käufliche Social Bots, also autonome Software-Agenten, könnten neuerdings zudem zur Gefahr werden.
Den zweiten Teil der Veranstaltung bestritt Stefan Schnurrer und begann mit der Definition von Künstlicher Intelligenz seitens des Europäischen Parlaments: KI ist die Fähigkeit einer Maschine , menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. Hierbei seien die Grenzen natürlich schwammig. Der Referent betonte, dass die Anfänge der KI bereits in den 1960er liegen. Auf KI basierende Filter sind auf jedem Smartphone zu finden, beispielsweise bei der Gesichtserkennung, der Fokuseinstellung, der Schärferegulierung und der automatischen Voreinstellung zum Verjüngen oder Verschönern einer Porträtaufnahme. Man begegnet also der KI also tagtäglich.
Die KI spielt mittlerweile bei der Bilderkennung eine nicht wegzudenkende Rolle, auch für die Objekterkennung (selbstfahrende Autos, Staubsaugerroboter etc.) oder bei der Qualitätssicherung in der Industrie ist sie unerlässlich.
Schnurrer erklärte weiterhin die Funktion von neuronalen Netzen. So gibt es die Eingabeschicht und die Ausgabeschicht, dazwischen existieren etliche Schichten von Neuronen. Anders formuliert: Was sieht die KI, was macht die KI und wie sieht die Welt aus, in der sich die KI bewegt?
Im weiteren Verlauf des Workshops wurde den Schülern erklärt, wie man die künstliche Intelligenz trainiert. Mittels der kostenlosen Internetseite „teachable machine“ wurden Trainingsdaten per Web Cam übermittelt, sodass sich die KI bzw. das neuronale Netz ein Muster für den Daumen nach oben und den Daumen nach unten suchen konnte. Das funktionierte so weit einwandfrei, doch als der Referent im Hintergrund zu sehen war, war sich die KI nicht mehr sicher, um welche Handbewegung es sich handelte. Man muss also einer KI alle möglichen Situationen mittels kategorisiertem Lernen antrainieren und sie muss häufig getestet werden. Daneben gibt es auch unüberwachtes Lernen, das z.B. zur Krankheitserkennung eingesetzt wird. Bei einer trainierten KI gibt es aber immer ein gewisses Restrisiko bei der Fehlererkennung, so Schnurrer.
KI wird auch zur Lokalisierung genutzt, was den Jugendlichen am Beispiel von Geolocation Estimation gezeigt wurde. Bei der Erkennung des Standorts von bekannten Sehenswürdigkeiten schnitt die KI gut ab. Fotos von Flora und Fauna konnte sie allerdings weniger gut oder gar nicht verorten. Da die KI durch das Antrainieren von Daten voreingenommen ist, ist sie folglich nicht in allen Bereichen einsetzbar, so z.B. auch für die Auswahl von Bewerbern auf einen Arbeitsplatz, was das Unternehmen Amazon wenig erfolgreich getestet hat.
Natürlich wurde die den Jugendlichen durchaus bekannte generative KI ChatGPT erörtert. Doch der Referent warnte davor, dass sich die von ihr produzierten Texte häufig nur gut anhörten, also schön formuliert seien, jedoch inhaltlich absolut nicht stimmen müssten. Die angegeben Quellen sind häufig falsch oder nicht auffindbar. Wer also seine Hausaufgaben von ChatGPT erledigen lässt, ist nicht unbedingt gut beraten. Zudem warnte Schnurrer eindringlich davor, persönliche Daten einzugeben.
Der letzte Teil des Workshops hatte so genannte Deep Fakes zum Thema. Deep Fakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz vorsätzlich verändert werden. Man sieht oder hört Personen, die Sachen tun oder sagen, die diese in Wahrheit gar nie getan oder gesagt haben. Es handelt sich um eine Zusammensetzung aus den Wörtern „Deep Learning“ (Methode, durch die die KI lernt) und „Fake“. Bis vor wenigen Jahren konnte man noch einigermaßen gut erkennen, ob ein Foto echt oder unecht war und die Schüler bekamen auch je zwei Fotos gezeigt: eines von einer realen Person und eines von einer künstlich generierten. Tatsächlich lagen sie aber auch hier teilweise daneben. Heute kann man die Realität von der Fiktion nur noch sehr schwer unterscheiden und man muss wirklich genau hinsehen. Zudem werden die Fotos in Sekundenschnelle generiert. Zur Veranschaulichung versah der Referent sein eigenes Konterfei bei einem Online-Meeting mit dem Gesicht des Bundeskanzlers Olaf Scholz.
Abschließend zeigte der Referent die „aus Text mach Bild“-Methode, indem er die KI mit bestimmten Befehlen fütterte. Die Bilder waren häufig authentisch, zudem könne man bei Bedarf jederzeit nachbessern. Die Qualität von Deep Fakes wird also immer besser, was dazu führt, dass man die Fiktion häufig nicht mehr von der Realität unterscheiden kann. Sicherlich haben Deep Fakes auch positive Seiten, wenn man beispielsweise an die Stimme von Hans Clarin denkt, die bei den neuen Pumuckl-Verfilmungen künstlich generiert wird. Aber die Gefahren und Probleme überwiegen. So könnten zum Beispiel künftige Enkeltricks tatsächlich mittels der geklonten Stimme des richtigen Enkels am Telefon durchgeführt werden.