Berlin | Bundesjustizministerin Christine Lambrecht (SPD) hat die Anbieter von Sprachassistenten eindringlich vor einem nachträglichen Anhören von Mitschnitten durch Mitarbeiter gewarnt. Die Datenschutz-Grundverordnung (DSGVO) enthalte „klare Regeln“ für das Internet der Dinge, sagte Lambrecht dem „Handelsblatt“. Dazu gehöre „insbesondere, dass die Kunden einfach, klar und verständlich über Art und Umfang der Datennutzung informiert werden“, so die Justizministerin weiter.

Unternehmen trügen hier „die volle Verantwortung, wenn dies nicht konsequent geschieht“. Rechtsverstöße müssten sofort abgestellt werden. „Andernfalls drohen den Unternehmen empfindliche Bußgelder in Höhe von bis zu vier Prozent des weltweiten Jahresumsatzes“, sagte Lambrecht.

Zuvor hatte Apple als erster Anbieter von Sprachassistenten angekündigt, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Die Funktion soll demnach in einem späteren Software-Update umgesetzt werden. Bis dahin solle die Praxis weltweit gestoppt und auf den Prüfstand gestellt werden.

Bei Assistenzsoftware wie Amazons „Alexa“, dem „Google Assistant“ und „Siri“ wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Lambrecht riet den Nutzern vor diesem Hintergrund, sie sollten „auf jeden Fall sehr gut abwägen, ob sie eine bestimmte digitale Anwendung wirklich in ihrem Haus haben möchten“. Digitale Sprachassistenten erfassten und analysierten „private Gespräche und Geräusche aus unserem persönlichsten Lebensbereich“, so die SPD-Politikerin.

Hamburger Datenschützer hält Sprachassistenten für problematisch

Der Hamburger Datenschutzbeauftragte Johannes Caspar hat vor Risiken für die Datensicherheit bei der Nutzung von Sprachassistenten wie Amazons „Alexa“ oder „Siri“ von Apple gewarnt. Nicht nur das „menschliche Transkribieren“ der Sprachaufnahmen sei „besonderen Missbrauchsanfälligkeiten“ ausgesetzt, sagte Caspar dem „Handelsblatt“. „Auch das Betreiben von Sprachassistenzsystemen ist aus technisch-organisatorischen Gründen problematisch“, so der Hamburger Datenschutzbeauftragte weiter.

Dazu zählten insbesondere Fehlaktivierungen. „Aber auch die Steuerung durch jede dritte Person, die in Mikrofonreichweite ist, kann ein Problem sein“, sagte Caspar. Er riet zu einem Stimmprofil, um die Zugriffskontrolle abzusichern.

Allerdings könnten Befehle an Sprachassistenzsysteme in Frequenzen versteckt werden, die für das menschliche Ohr nicht hörbar seien. „Durch Ultraschallfrequenzen können Systeme so unbemerkt gesteuert werden“, so der Datenschützer. Dessen ungeachtet begrüßte er, dass Apple als erster Anbieter von Sprachassistenten angekündigt hat, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen.

„Der Schlüssel zu einer zulässigen menschlichen Auswertung von Sprachaufnahmen führt über die Einwilligung der Betroffenen“, sagte er. Diese müsse informiert erfolgen. „Das setzt eine transparente Aufklärung gerade auch über die Fehlaktivierungen voraus“, so der Hamburger Datenschutzbeauftragte weiter.

Schließlich sei auch der Schutz von dritten Personen im Funktionsbereich von Sprachassistenzsystemen zu berücksichtigen. „Es müssen insoweit Industriestandards für den Datenschutz bei Sprachassistenzsystemen entwickelt werden“, sagte Caspar dem „Handelsblatt“. Hier komme den „Aufsichtsbehörden für den Datenschutz eine wichtige Rolle zu“.

Autor: dts