Aktuelles
ChatGPT und Datenschutz - Katastrophe mit Ansage?
Die Euphorie bei künstlicher Intelligenz im Allgemeinen und ChatGPT im Besonderen hält unvermindert an. Innerhalb von zwei Monaten nach der Veröffentlichung des Tools wurden die Marke von 100 Millionen aktiven Nutzern geknackt - damit ist ChatGPT die am schnellsten wachsende Anwendung im Internet, die jemals auf den Markt gebracht wurde. Das Potenzial ist riesig und die großen Internetkonzerne sind allesamt in betriebsame Hektik verfallen, jeder will dabei sein. Doch in all der Goldrausch-Stimmung sollte eines nicht vergessen werden: ChatGPT ist ein Alptraum für alle Datenschützer. Sollten Sie jemals etwas online gepostet haben, besteht Grund zur Sorge.
ChatGPT wird mithilfe einer Datenbank mit 300 Milliarden Wörtern trainiert, die aus Büchern, Websites, Artikeln und allen erdenklichen Publikationen im Internet zusammengetragen werden. Die künstliche Intelligenz kann also immer nur so "klug" sein, wie das Internet insgesamt. Auch wenn Sie selbst etwas online gepostet haben, besteht die Möglichkeit, dass Ihr Artikel oder Ihr Blogbeitrag in die Datenbank von ChatGPT eingespeist wird. Da liegt es nahe, dass die gesammelten Daten geschützte, persönliche oder urheberrechtlich relevante Informationen enthalten. Und schon sind wir mitten drin in der rechtlichen Grauzone: Denn bislang bietet OpenAI weder eine Möglichkeit zu überprüfen, ob Maschinerie persönliche Informationen speichert - oder eine angemessene Funktion, dass diese gelöscht werden.
So monieren Datenschützer die nicht unerheblichen Risiken für den Schutz der persönlichen Daten, die ChatGPT für jeden einzelnen von uns darstellt. Auch weil andere Unternehmen rasch nachziehen und ähnliche Werkzeuge auf den Markt werfen. Technologiekonzerne, die an künstlicher Intelligenz arbeiten, haben ein regelrechtes Wettrüsten begonnen. Erst vor wenigen Tagen hat Google seine eigene konversationelle KI namens Bard vorgestellt, und andere werden sicherlich folgen.
Eines haben alle Tools gemeinsam: Sie werden mit persönlichen Daten gefüttert.
300 Milliarden Wörter. Wie viele davon haben Sie geschrieben?
ChatGPT stützt sich auf ein umfangreiches Sprachmodell, das eine Unmenge an Daten benötigt, um zu funktionieren, um zu lernen und um sich immer wieder zu verbessern. Je mehr Daten in das Modell einfließen, desto besser ist ChatGPT in der Lage, Muster zu erkennen, vorauszusehen was als Nächstes kommt und daraus plausible Texte zu generieren.
OpenAI ist die Organisation, die hinter ChatGPT steht. Die KI-Spezialisten haben ChatGPT inzwischen mit 300 Milliarden Wörtern gefüttert, die systematisch aus dem Internet zusammengetragen werden: Bücher, Artikel, Websites und Beiträge - darunter natürlich auch persönliche Informationen, die bislang ohne jegliche Zustimmung eingeholt werden. Wenn Sie also jemals einen Blogbeitrag oder eine Produktbewertung geschrieben haben - aber auch nur einen Online-Artikel kommentiert haben, ist es gar nicht so unwahrscheinlich, dass diese Informationen von ChatGPT verwendet werden.
Und wo ist das Problem?
Die Daten, doe dazu verwendet werden, dass ChatGPT immer weiter lernt, sind aus mehreren Gründen problematisch.
Es wurde niemand gefragt, ob OpenAI persönliche Daten verwenden darf. Dies ist ein klarer Verstoß gegen die Privatsphäre, insbesondere wenn es sich um sensible Daten handelt, die dazu verwendet werden können, Personen, Eigenschaften, Standorte und zutiefst private Parameter zu identifizieren. Das trifft im Übrigen auch zu, wenn Daten öffentlich zugänglich sind. Auch dann kann die Verwendung dieser Daten das verletzen, was Juristen unter kontextueller Integrität verstehen: Die Informationen einer Person dürfen nicht außerhalb des Kontexts, in dem sie ursprünglich erstellt wurden, offengelegt werden - ein grundlegendes Prinzip in rechtlichen Diskussionen um den Schutz der Privatsphäre.
Außerdem bietet OpenAI bis jetzt kein einziges Verfahren an, mit denen Einzelpersonen überprüfen können, ob das Unternehmen ihre persönlichen Daten speichert - noch weniger können sie die Löschung dieser Daten verlangen. Und das ist integraler Bestandteil der aktuellen Rechtslage, etwa der Europäischen Datenschutzverordnung (GDPR).
So ist das "Recht auf Vergessenwerden" ganz besonders wichtig in Fällen, in denen die Informationen ungenau oder irreführend sind - was bei ChatGPT regelmäßig der Fall zu sein scheint.
Zudem können die eingelesenen Daten urheberrechtlich geschützt sein. Es ist beispielsweise kein Problem, ChatGPT zu Zitaten aus Büchern, Presse und anderen Veröffentlichungen aufzufordern - ohne dass die Urheber davon wissen, ohne dass ihr Einverständnis erklärt haben und ohne dass Urheber für die Nutzung vergütet werden.
Muss die AI an die Leine gelegt werden?
Nicht wenige Experten glauben, dass populäre Anwendungen wie ChatGPT einen Wendepunkt für die Künstliche Intelligenz darstellen - und sehen eine technologische Entwicklung, die die Art und Weise, wie wir arbeiten, lernen, schreiben und sogar denken, revolutionieren werden wird. Trotz des riesigen Potentials sollte nicht außer Acht gelassen werden, dass OpenAI ein privates, gewinnorientiertes Unternehmen ist, dessen kommerzielle Interessen nicht unbedingt mit den Anforderungen und dem Rechtsempfinden der bürgerlichen Gesellschaft übereinstimmen.
Die Risiken für die Privatsphäre eines jeden von uns sollten keinesfalls kleingeredet werden. Und als Nutzer einer wachsenden Zahl von KI-Technologien sollten wir äußerst vorsichtig sein, welche Informationen wir mit derartigen Werkzeugen teilen.
Foto: Tara Winstead
17.02.2023
Alle News vom TAGWORX.NET Neue Medien können Sie auch als RSS Newsfeed abonnieren, klicken Sie einfach auf das XML-Symbol und tragen Sie die Adresse in Ihren Newsreader ein!