Wie viel Potential große Datenmengen und immer stärkere Rechenleistung für ökologische, wirtschaftliche und soziale Systeme haben, demonstrierten u.a. Carlo C. Jaeger vom Global Climate Forum, Martin Visbeck vom GEOMAR Helmholtz Centre for Ocean Research und Patrick Ole Noack von der Hochschule Weihenstephan-Triesdorf. Im Kombination mit eigens erhobenen Beobachtungsdatenmit können Computermodelle Dr. Dirk Notz vom Max-Planck-Institut für Meteorologie zufolge einen tiefgreifenden Einblick in die zukünftige Entwicklung der Eismassen auf unserem Planeten geben. Leider, so das Fazit, können sie das Schlimmste dennoch nicht verhindern: Drei Quadratmeter Meereis verschwinden pro Tonne emittiertem CO2 – angesichts der aktuellen Entwicklungen wird laut Frick innerhalb der nächsten 20 Jahre der Punkt erreicht sein, an dem das arktische Meereis im Sommer vollständig schmilzt.
Dass oft nicht die Daten selbst oder deren Analyse, sondern die Visualisierung zu den größten Herausforderungen für die Unterstützung informierter Entscheidungen geht, erklärte HPI-Professor Emmanuel Müller in seinem Vortrag. Wie sich die Kluft zwischen den Daten und den Menschen überwinden lässt, lernen ab Oktober die ersten Masterstudierenden im neuen Studiengang „Data Engineering“ am HPI. Professor Begüm Demir von der Technischen Universität Berlin illustrierte auf der „Science Match“-Bühne, wie sie als Leiterin des „BigEarth“-Projekts nach neuen, skalierbaren Wegen sucht, Satellitenbilder von der Erde nach wichtigen Informationen wie Waldbrandflächen durchsuchbar zu machen.
Auch der ethische Umgang mit Daten wurde auf der Konferenz diskutiert: So stritten Vertreter u.a. des Deutschen Bundestages, von Google Germany, dem Oxford Internet Institute und AlgorithmWatch darüber, wer die Verantwortung trägt, über die Rechtmäßigkeit digitaler Inhalte zu entscheiden – private Unternehmen oder staatliche Gerichte. Die pragmatische Entscheidung wurde jüngst durch das umstrittene Netzwerkdurchsetzungsgesetz getroffen, die Diskussion jedoch geht weiter.