Skip to content

FTC untersucht Trainingsmethoden für Sprachmodelle

Die Federal Trade Commission (FTC) führt Untersuchungen zur Verwendung von Daten durch Unternehmen wie OpenAI, Google und Meta durch. Es geht speziell darum, wie diese Daten für ihre großen Sprachmodelle verwendet werden.

Diese Modelle, darunter ChatGPT, Gemini oder LLaMA, werden oft mit Daten von Nachrichten-Webseiten, künstlerischen Schöpfungen und anderen geschützten Werken sowie persönlichen Informationen von Nutzern trainiert.

Die Vorsitzende der FTC, Lina Khan, äußerte sich zu diesen Praktiken auf dem "Future of Everything Festival" des Wall Street Journals in New York City. Sie stellte die Frage, ob solche umfassenden Datensammlungen ("Data Scraping") den Wettbewerb verzerren oder die Privatsphäre der Menschen verletzen könnten.

Eine ungerechtfertigte Wettbewerbsmethode

Der FTC Act verbietet unlautere Wettbewerbsmethoden sowie unfaire oder irreführende Handlungen und Praktiken. Khan betonte bei der Konferenz, dass es problematisch sein könne, wenn Inhalte oder Informationen von Personen oder Betrieben ohne deren Zustimmung genutzt werden.

Dies könne dazu führen, dass solche Personen oder Betriebe verdrängt und geschäftlich untergraben werden. Ein weiteres Problem sei die Verwendung personenbezogener Daten ohne Zustimmung. Solche Praktiken könnten ebenfalls rechtliche Probleme aufwerfen.

Zudem äußerte Khan Bedenken über täuschende und unlautere Verhaltensweisen. Einige KI-Diensteanbieter könnten zahlreiche Zusicherungen bei der Anmeldung geben, diese aber später stillschweigend brechen.

Es geht dabei um die Verwendung sensibler persönlicher Informationen oder Geschäftsgeheimnisse zum Training von Sprachmodellen. Diese Daten könnten dann verwendet werden, um mit den betroffenen Personen oder Unternehmen zu konkurrieren oder deren Privatsphäre zu verletzen.

Berichte zeigen auch, dass Unternehmen ihre Geschäftsbedingungen rückwirkend ändern, um sich selbst die Nutzung von Kundeninhalten wie persönlichen Fotos oder Videos zu gestatten.

Wahl zwischen Skylla und Charybdis

Viele Menschen fühlen sich in ihren Grundrechten verletzt, da sie nicht mehr um ihre Zustimmung gefragt werden. Sie haben das Gefühl, keine Kontrolle mehr über ihre persönlichen Daten zu haben.

Khan hebt hervor, dass einige dieser Dienste für den Alltag unverzichtbar sind. Verbraucher stehen vor der schwierigen Wahl, sich permanent überwachen zu lassen oder auf diese Dienste zu verzichten. Dies ist eine wirklich schwierige Situation für die Verbraucher.

Khan folgert, dass viele Behörden bei der Weiterentwicklung der KI eine wichtige Rolle spielen müssen. Auch in Washington wird zunehmend anerkannt, dass die Regierung aktiv werden muss.

Die Europäische Union ist mit dem AI Act schon weiter in der Regulierung von KI. Bisher wurden Fälle von Datenextraktion hauptsächlich unter Urheberrechtsaspekten betrachtet.

So hat die New York Times OpenAI wegen Urheberrechtsverletzungen verklagt. Jetzt geraten die KI-Betreiber zusätzlich ins Visier der Kartellbehörden.

Autor dieses Beitrags

Simon Feller

Experte für Künstliche Intelligenz (KI) und Prozessautomatisierung