Die Ausbildung von KI zur Gesichtsverkäufe hat jedoch zu Opfern von Deepfakes geführt, die dunkle Wahrheit der globalen grauen KI-Industrie.

MarketWhisper

AI灰色產業

Eine eingehende Untersuchung der britischen „Guardian“ enthüllt eine schnell wachsende globale Grauwirtschaft: Tausende von gewöhnlichen Menschen aus Südafrika, Indien und den USA tauschen ihre Stimmen, Gesichter, Gehvideos und private Telefonaufzeichnungen gegen AI-Trainingsgebühren. Da die Nachfrage der AI-Unternehmen nach hochwertigen menschlichen Daten das verfügbare Angebot im öffentlichen Internet übersteigt, sind kostenpflichtige Erfassungsplattformen wie Kled AI, Silencio und Neon Mobile entstanden.

Zwei echte Fälle: Wer verkauft sich und warum

Der weltweite AI-Datenrausch wird vor allem von Entwicklungsländern angetrieben.

Der 27-jährige Jacobus Louw aus Kapstadt, Südafrika, hat bei Kled AI eine „Stadt-Navigations“-Aufgabe abgeschlossen und für ein Gehvideo 14 US-Dollar erhalten, was etwa das Zehnfache des lokalen Mindestlohns ausmacht. Er gibt zu, dass ihm die Kosten der Privatsphäre bewusst sind, aber aufgrund einer jahrelangen neurologischen Erkrankung nicht arbeiten kann und durch den Verkauf alltäglicher Videos 500 US-Dollar gespart hat, um sich für einen Massagetherapiekurs anzumelden. „Als Südafrikaner ist der Erhalt von Dollar wertvoller, als die meisten denken“, sagt Louw.

Der 22-jährige Student Sahil Tigga aus Ranchi, Indien, verkauft jeden Monat Umgebungsgeräuschaufnahmen über Silencio und verdient über 100 US-Dollar; der 18-jährige Schweißlehrling Ramelio Hill aus Chicago, USA, verkauft etwa 11 Stunden private Telefonaufzeichnungen für 0,50 US-Dollar pro Minute an Neon Mobile und verdient etwa 200 US-Dollar. Seine Logik ist einfach und direkt: Technologieunternehmen haben bereits eine große Menge seiner persönlichen Daten, warum sollte er nicht auch einen Teil davon abbekommen?

Wie die AI-Datenknappheit diese Grauwirtschaft hervorbringt

Die Verbesserungen generativer AI wie ChatGPT und Gemini hängen von einer riesigen Menge hochwertiger menschlicher Daten ab, aber gängige offene Datensätze wie C4, RefinedWeb und Dolma haben begonnen, die kommerzielle Nutzung einzuschränken. Forscher schätzen, dass AI-Unternehmen bis 2026 schnell an frischem, hochwertigem Textmangel leiden werden. Das Training mit synthetischen Daten, die durch AI generiert wurden, hat sich als fehlerhaft und als „Müll“ erwiesen und kann zu einem Zusammenbruch führen, wodurch die Knappheit an echten menschlichen Daten weiter erhöht wird.

Die daraus entstandenen kostenpflichtigen Erfassungsplattformen haben ein neues digitales Gig-Ecosystem geschaffen, das die Welt umfasst:

Kled AI: Erwerb von Alltagsfotos und -videos auf Auftragsbasis

Silencio: Crowdsourcing zur Erfassung von Umgebungsgeräuschen, Abrechnung in Form von Kryptowährungen

Neon Mobile: Erwerb von Gesprächen und Telefonaufzeichnungen für 0,50 US-Dollar pro Minute

Luel AI (unterstützt von Y Combinator): Erfassung mehrsprachiger Gespräche für etwa 0,15 US-Dollar pro Minute

ElevenLabs: Ermöglicht es Benutzern, ihre Stimme digital zu klonen, Grundgebühr von 0,02 US-Dollar pro Minute

Bouke Klein Teeselink, Professor für Wirtschaft an der King’s College London, weist darauf hin, dass AI-Trainingsgigs eine neuartige Arbeitskategorie sind, die erheblich wachsen wird. AI-Unternehmen zahlen aktiv für die Erfassung, um die vollständige Abhängigkeit von Web-Crawling zu vermeiden, was zu Urheberrechtsstreitigkeiten führen könnte.

Deepfakes und unwiderrufliche Lizenzen: Die tatsächlichen Kosten der Grauwirtschaft

Die rechtlichen Risiken dieser Plattformen sind den Nutzern oft kaum bekannt. Enrico Bonadio, Professor für Rechtswissenschaften an der City University of London, weist darauf hin, dass Lizenzvereinbarungen den Plattformen in der Regel „weltweite, exklusive, unwiderrufliche, übertragbare und lizenzfreie“ Vollmacht geben, die es ihnen erlaubt, diese zu verkaufen, auszustellen, zu speichern und daraus abgeleitete Werke zu schaffen, während Anbieter kaum praktische Möglichkeiten haben, ihre Zustimmung zurückzuziehen oder neu zu verhandeln.

Die Erfahrungen des New Yorker Schauspielers Adam Coy sind das prägnanteste Beispiel. Er hat sein Abbild für 1.000 US-Dollar an die AI-Video-Editing-Software Captions lizenziert, wobei die Vereinbarung ausdrücklich festlegte, dass es nicht für politische Werbung oder pornografische Inhalte verwendet werden darf, und die Lizenzdauer ein Jahr betrug. Doch kurz darauf entdeckte ein Freund von ihm auf Instagram ein Video mit Millionen von Aufrufen, in dem „er“ sich als „Vaginarzt“ bezeichnet und unverifizierte medizinische Ergänzungsmittel für schwangere Frauen bewirbt. „Die Kommentare waren seltsam, weil sie mein Aussehen bewerteten, aber das war nicht ich“, sagt Coy. Seitdem hat er keine AI-Daten-Gigs mehr angenommen.

Mark Graham, Professor an der Universität Oxford, fasst zusammen, dass diese Arbeit strukturell „instabil, ohne Aufstiegsmöglichkeiten und letztlich ein toter Weg“ ist, wobei der einzige langfristige Gewinner die „Plattformen der Nordhalbkugel sind, die alle dauerhaften Werte erlangen“.

Häufige Fragen

Was ist die Grauwirtschaft des AI-Trainings und warum wird sie „grau“ genannt?

Die Grauwirtschaft des AI-Trainings bezieht sich auf eine Reihe von kostenpflichtigen Erfassungsplattformen, die durch die Zahlung von Belohnungen an gewöhnliche Nutzer Stimmen, Gesichter, Videos und Telefonaufzeichnungen erwerben, die für das Training von AI-Modellen verwendet werden. Sie wird als „grau“ bezeichnet, da die Transaktionen scheinbar legal sind, aber der endgültige Verwendungszweck der Daten undurchsichtig, die Lizenzbedingungen extrem asymmetrisch sind und es potenzielle Missbrauchsrisiken gibt, die mit Deepfakes verbunden sind, was sie an der Grenze zwischen Regelkonformität und Ausbeutung positioniert.

Welche spezifischen rechtlichen Risiken bestehen beim Verkauf persönlicher Daten zur AI-Trainings?

Anbieter gewähren der Plattform oft unwiderrufliche Rechte zur Nutzung biometrischer Daten, ohne die Bedingungen vollständig zu verstehen. Jennifer King, Forscherin an der Stanford University, weist darauf hin, dass Verbraucher dem Risiko ausgesetzt sind, dass ihre Daten auf „Weisen wiederverwendet werden, die sie nicht mögen, nicht verstehen oder nicht vorhergesehen haben, und dass es kaum Wege zur Abhilfe gibt.“ Der Sicherheitsvorfall bei Neon Mobile hat bereits bestätigt, dass Plattformen nach einem Datenleck möglicherweise nicht einmal die betroffenen Nutzer benachrichtigen.

Wie hängt diese Grauwirtschaft mit der Kryptoökonomie zusammen?

Einige AI-Trainingsplattformen (wie Silencio) zahlen Belohnungen in Form von Kryptowährungen und nutzen dezentrale Zahlungen, um die Hürden für grenzüberschreitende Zahlungen zu senken, sodass Nutzer aus Entwicklungsländern direkt in Stablecoins oder nativen Token Erträge erzielen können. Dies macht den AI-Datenmarkt zu einem wichtigen Zweig der realen Anwendung von Kryptowährungen, während es auch Überlegungen zu Tokenbewertung, Liquidität und Datenethik aufwirft.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare