Wie schnell und einfach sich mit Hilfe von KI sogenannte Deep Fakes erstellen lassen, demonstrierten die HPI-Masterstudierenden Florian Künzig, Adrian Rall, John Bauer, Marie Fischer und HPI-Doktorand Wenzel Pünter anhand eines interaktiven Exponats auf der Konferenz. Mithilfe eines ML-basierten Face Transformation Modells konnten sich die Konferenzteilnehmer:innen vor einem Greenscreen live die Gesichtszüge von Elon Musk, Annalena Baerbock oder Taylor Swift täuschend echt auf das eigene Gesicht projizieren lassen. Um eine prominente Person in das Modell einzubauen, haben die Studierenden eine Stunde gebraucht – um das gesamte Modell zu trainieren, rund eine Woche. Damit wollen sie vor allem auf die Gefahr der öffentlichen Meinunugsmanipulation aufmerksam machen. Was kann man glauben und was nicht? In der Vertrauenskrise gewinnen glaubwürdige Quellen und die Fähigkeit, manipulierte Inhalte zu erkennen, immer mehr an Bedeutung. Dabei begegnen uns Deep Fakes nicht nur im politischen Kontext: "Den Großteil der Modelle, die wir gefunden haben, waren von Privatpersonen", sagen die Studierenden. Nicht selten finden sich diese in pornografischen Netzwerken wieder.
An einem weiteren Exponat zeigten die Studierenden, wie leicht sich eine Bluetooth-Tastatur hacken lässt. Ist die Funkkommunikation unzureichend verschlüsselt, können Fremde die Tastatur angreifen und von einem Angreifer-PC aus steuern – und so etwa Passwörter mitlesen oder Schadsoftware herunterladen. Die Demo macht deutlich: Cybersecurity hört nicht bei der Software auf, sondern reicht bis hin zu Funk-Standards.