Menü

"Forum digitale Gesellschaft": Innenminister will Big Data zähmen

Bundesinnenminister Thomas de Maizière hat beim ersten "Forum digitale Gesellschaft" mit 20 Experten nach Möglichkeiten gesucht, das Auswerten riesiger Datenmenge mit Vorgaben zum Sichern der Privatsphäre zu vereinen.

vorlesen Drucken Kommentare lesen 24 Beiträge

Ein klares Ziel hatte sich Bundesinnenminister Thomas de Maizière für den Auftakt der Veranstaltungsreihe "Forum digitale Gesellschaft" am Donnerstag in Berlin gesetzt. Der CDU-Politiker wollte gemeinsam mit 20 Vertretern "aus Wirtschaft, Zivilgesellschaft und Wissenschaft" Lösungsansätze finden, "die einerseits die Chancen und den gesellschaftlichen Nutzen von Big-Data-Anwendungen wahren und andererseits die Persönlichkeitsrechte der Bürger angemessen schützen".

Thomas de Maizière

(Bild: Stefan Krempl)

Weit kam die Runde dabei in rund drei Stunden nicht. Es zeigte sich, dass die Vorstellungen von Datenschützern, Verfassungsrechtlern, Gründern, Medizinern, Forschern und Größen aus der IT-Industrie rund um die schöne neue Datenwelt weit auseinander liegen und die Mitstreiter häufig aneinander vorbeiredeten. Trotz arger Probleme, sich einem Instrumentenkasten zum Behandeln von Big Data anzunähern, möchte de Maizière den ein oder anderen formulierten Gedanken aber noch in die laufenden Debatten im EU-Rat zur geplanten Datenschutzreform einbringen.

Einblicke in die Praxis der angewandten Forschung gewährte Stefan Wrobel vom Fraunhofer-Institut für intelligente Analyse- und Informationssysteme. Bei Big Data geht es ihm zufolge immer mehr um das Nutzen von Daten, "die nicht anlassbezogen für einen bestimmten Zweck erhoben worden sind". Unternehmen etwa entdeckten, dass sich damit "neue interessante Dienste entwickeln lassen".

Viele Anwendungen kämen ohne "großen Personenbezug" aus und sollten so datenschutzrechtlich weitgehend unbedenklich sein, führte Wrobel aus. Dabei gehe es etwa um das Optimieren von Logistikketten oder das Erstellen von Mobilitätskarten. Gegebenfalls könne man auch eine Anonymisierung vornehmen, wenn etwa Mobilfunk- oder Kreditkartendaten einbezogen würden. Ein letztes Drittel derzeitiger Big-Data-Einsätze richte sich direkt an Personen etwa im Bereich der Suche im Netz oder in der Medizin. Dafür sei traditionell eine Einwilligung der Betroffenen einzuholen.

Mit dem Opt-in sei es aber so eine Sache, gab der Forscher zu bedenken. So ließen sich Firmen dabei per Klick meist "sehr weitreichende Erlaubnisse erteilen", was das Datenschutzniveau faktisch absenke. Besser sei es daher, die tatsächliche Breite der Verwendung personenbezogener Informationen auf der Ebene konkreter Dienste und deren Zwecke zu regeln. Dafür spreche auch, dass gerade im "Internet der Dinge" die Bedeutung eines "Mikrodatums" an der Quelle gar nicht einschätzbar sei.

Die Diskussionsrunde

(Bild: Stefan Krempl)

Wer Trends wie zum Abstoßen gespendeter oder künstlicher Organe oder zu Resistenzen gegenüber Antibiotika erkennen wolle, brauche dazu umfangreiche Datenpools, brachte Björn Bergh vom Zentrum für Informations- und Medizintechnik der Universität Heidelberg Beispiele aus dem Gesundheitswesen. Dabei sei teils eine Rückverfolgbarkeit wichtig für den Ein- oder Ausschluss einzelner Patienten in bestimmte Therapien. Ärzte und Kliniken holten sich daher eine "generelle Zustimmung" ein, dass persönliche Daten für die Forschung genutzt werden dürfen. Eine Ethikkommission könne dann entscheiden, ob die Informationen für bestimmte Zwecke verwendet werden sollten.

"Wir nutzen öffentliche Daten aus sozialen Netzwerken und behandeln sie mit Maschinenlernen", berichtete der "Crowdflow"-Verfechter Marc Lange von weiteren praktischen Erfahrungen mit Big Data. So ließen sich etwa Erkenntnisse über das Nutzen von Verkehrsmitteln ziehen und Taxi-Fahrer gezielt zum Ort einer gerade endenden Veranstaltung führen. Die Daten seien bei der Übernahme etwa von Facebook aber noch nicht anonymisiert und es läge auch keine spezielle Einverständniserklärung der Nutzer vor. "So sind wir schon mit einem Fuß im Gefängnis", bevor Skripte den Personenbezug im "Vorhaltespeicher" für die abgesaugten Daten entfernen könnten.

Das bestehende Datenschutzrecht mit seinem "Erlaubnisvorbehalt" passe einfach nicht mehr, folgerte der Blogger Jürgen "tante" Geuter aus den Darstellungen. Im Netz dürften nicht mit Gewalt alle möglichen Datenverwendungen unterbunden werden, die im analogen Bereich gang und gäbe seien. Andererseits hatte er Bauchschmerzen mit einem Big-Data-Ansatz, bei dem "man Daten an die Wand schmeißt und schaut, was kleben bleibt". So landeten auch völlig Unverdächtige in Kriminellendatenbanken, weil sie sich zufällig auffällig verhalten hätten.

Auf Widersprüche zwischen derlei Konzepten und dem Volkszählungsurteil des Bundesverfassungsgerichts verwies der Berliner Jurist Ingo Pernice. "Der Bürger muss wissen können, wer was wann bei welcher Gelegenheit über ihn weiß", zitierte er aus dem Karlsruher Beschluss. Das damit formulierte informationelle Selbstbestimmungsrecht sei "schon immer utopisch gewesen", ergänzte sein Mainzer Kollege Matthias Cornils. Der Datenschutz habe eine "höchst ungewöhnliche Dominanz" erreicht und schlage andere Grundrechte wie die Kommunikations- oder Geschäftsfreiheit aus dem Feld. Derlei "überschießenden Verboten" müsse man entgegenhalten: "Daten sammeln ist gut."

"Sie machen die ganze Grundrechtstheorie kaputt", warf die Bremer Datenschutzbeauftragte Imke Sommer den Rechtsexperten daraufhin vor. Es gebe kein belangloses Datum mehr, weswegen "wir einen weiten Schutzbereich haben müssen". Die Bundesdatenschutzbeauftragte Andrea Voßhoff befand ebenfalls, dass eine Klassifizierung von Datendiensten und ein risikobasierter Ansatz nicht weiterhälfen. Es seien "datenschutzverträgliche neue Technologien für Big Data zu entwickeln". Laut Rigo Wenning vom World Wide Web Consortium (W3C) kann das Festlegen entsprechender Standards für gewisse Datentypen helfen, "eine Flur in den Wald zu schlagen". (mho)