Raport opublikowany 27 lutego rzuca światło na ukrytą ludzką pracę stojącą za dążeniem Meta do rozwoju nośnej sztucznej inteligencji i rodzi nowe pytaniaRaport opublikowany 27 lutego rzuca światło na ukrytą ludzką pracę stojącą za dążeniem Meta do rozwoju nośnej sztucznej inteligencji i rodzi nowe pytania

Kenijscy pracownicy szkolący okulary AI Meta twierdzą, że widzą najbardziej intymne momenty użytkowników

2026/03/04 17:01
4 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

Śledztwo przeprowadzone przez szwedzkie gazety Svenska Dagbladet i Göteborgs-Posten ujawniło, że pracownicy kontraktowi w Kenii zatrudnieni przez Sama — kenijską firmę outsourcingową świadczącą usługi adnotacji danych — pomagający w trenowaniu systemów AI Meta Platforms, są w znacznym stopniu narażeni na prywatne zdjęcia i filmy nagrywane przez użytkowników inteligentnych okularów Ray-Ban firmy.

Raport opublikowany 27 lutego rzuca światło na ukrytą ludzką pracę stojącą za ekspansją Meta w dziedzinie noszalnej sztucznej inteligencji i podnosi nowe pytania dotyczące ochrony danych, transgranicznego transferu danych oraz psychologicznego obciążenia moderatorów treści pracujących dla Sama w Nairobi.

Inteligentne okulary Ray-Ban firmy Meta, opracowane we współpracy z EssilorLuxottica, są reklamowane jako asystent zasilany AI, który może tłumaczyć języki, opisywać otoczenie, robić zdjęcia i nagrywać filmy bez użycia rąk oraz odpowiadać na pytania o to, co widzi użytkownik.

Jednak poza futurystyczną wizją, wywiady z obecnymi i byłymi pracownikami Sama i Meta przeprowadzone przez Svenska Dagbladet ujawniły, że materiały nagrywane przez okulary trafiają tysiące kilometrów dalej do Kenii, gdzie adnotatorzy danych przeglądają je i etykietują w celu poprawy wydajności systemu.

Prywatność po cichu naruszona

Kilku kenijskich pracowników powiedziało szwedzkiej gazecie, że regularnie napotykają wrażliwe materiały podczas swojej pracy, w tym zwykłe sceny domowe oraz intymne momenty, o których użytkownicy mogli nie zdawać sobie sprawy, że są nagrywane.

W niektórych przypadkach, jak twierdzą pracownicy, nagrania zawierają informacje finansowe, takie jak widoczne w kadrze karty bankowe, lub nagrania wykonane w prywatnych przestrzeniach, takich jak sypialnie i łazienki.

"Na niektórych filmach można zobaczyć, jak ktoś idzie do toalety lub się rozbiera" — powiedział dziennikarzom jeden z pracowników Sama. "Nie sądzę, żeby wiedzieli, bo gdyby wiedzieli, nie nagrywaliby."

Inny wykonawca twierdził, że przeglądał nagranie pokazujące użytkownika okularów odkładającego je na stolik nocny, po czym jego żona wchodzi do pokoju i rozbiera się, prawdopodobnie nieświadoma, że jest obserwowana. Inne nagrania podobno pokazywały użytkownika oglądającego pornografię lub nawet nagrywającego siebie podczas seksu

Według śledztwa, w przypadku urządzeń noszalnych brakowało przejrzystości. Sprzedawcy detaliczni w Europie podobno podawali niespójne informacje na temat tego, czy dane przechwycone przez okulary pozostają na urządzeniu, czy są przesyłane na serwery Meta. Niezależne testy przytoczone w raporcie wskazały, że wiele funkcji AI okularów wymaga połączenia z chmurą, co oznacza, że obrazy i dane głosowe mogą być przetwarzane zdalnie, a nie lokalnie na urządzeniu.

Powiązania z Sama

Sama, dawniej Samasource, świadczy usługi adnotacji danych dla dużych firm technologicznych, takich jak Meta i OpenAI. Firma była w przeszłości oskarżana o naruszenia prawa pracy w niektórych swoich kontraktach, szczególnie z OpenAI.

Sama wymaga ścisłych umów o zachowaniu poufności, które ograniczają to, co pracownicy mogą publicznie ujawnić. Jednak relacje opublikowane przez szwedzkie gazety sugerują, że obietnica bezproblemowej AI jest napędzana systemem pracy, w którym ludzie recenzenci przesiewają duże ilości surowych, niefiltrowanych danych, aby algorytmy mogły nauczyć się rozpoznawać obiekty, środowiska i kontekst.

Meta oświadcza w swoich politykach prywatności, że treści użytkowników mogą podlegać ludzkiej weryfikacji w celu ulepszania produktów i zapewnienia bezpieczeństwa. W przypadku użytkowników europejskich irlandzka spółka zależna firmy jest odpowiedzialna za zgodność z ogólnym rozporządzeniem UE o ochronie danych (RODO).

Jednak śledztwo podnosi pytania o to, jak dane zebrane w Europie lub Stanach Zjednoczonych są przesyłane i przetwarzane w krajach takich jak Kenia, które nie posiadają decyzji UE o adekwatności uznającej ich systemy ochrony danych za równoważne z RODO.

Podczas gdy adnotacja danych, moderacja treści i szkolenie AI stały się kluczowe dla technologicznych ambicji Nairobi, te prace — głównie dla studentów i młodych absolwentów — wiążą się z niskimi zarobkami, dużym obciążeniem pracą i narażeniem na niepokojące materiały.

Meta broniła swoich praktyk w poprzednich publicznych oświadczeniach, twierdząc, że inwestuje w zabezpieczenia prywatności i minimalizuje ilość danych wykorzystywanych do treningu. Mimo to relacje opublikowane przez szwedzkie gazety sugerują, że granica między zautomatyzowaną inteligencją a ludzkim nadzorem jest bardziej rozmyta, niż zakładają wielu konsumentów.

Okazja rynkowa
Logo CROSS
Cena CROSS(CROSS)
$0.09918
$0.09918$0.09918
-2.65%
USD
CROSS (CROSS) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.