Ale draka. Google wykorzystywało czarnych bezdomnych do trenowania AI

Stronę napędza Drupal

Okazuje się, że sporym problemem było nauczenie AI rozpoznawania twarzy u osób o ciemniejszym odcieniu skóry. Google zdecydowało się więc zawiązać współpracę z firmą Randstad, na mocy której jej pracownicy mieli za zadanie nagrywać materiały wideo z ciemnoskórymi osobami według wytycznych – tak, aby można było za ich pomocą trenować sztuczną inteligencję.

Czytaj więcej: Wszystko o Google Pixel 4 i 4 XL

Google odpowiedziało na zarzuty i potwierdziło, że była to inicjatywa autorstwa Google, jednak prace wykonywał dla giganta podwykonawca, za którego poczynania nie odpowiada. Całość miała związek z rozwojem urządzenia Google Pixel 4.

Osoby, które zdecydowały się na udostępnienie swojej twarzy Google otrzymywały bon na zakupy do wysokości 5 dolarów w Starbucks. Wszystko byłoby dobrze, gdyby podwykonawca nie stosował kontrowersyjnych praktyk: pracownicy mieli być nachalni, wykorzystywali także ułomność lub nietrzeźwość osób spotykanych na ulicy. W skrócie: wiele z tego, co otrzymała do przerobienia sztuczna inteligencja to materiały pochodzące od czarnoskórych bezdomnych. Program był prowadzony w Atlancie (stan Georgia).

Pracownikom polecono uderzać do bezdomnych, bo „oni nie zdają sobie sprawy z tego, co jest grane”

Pracowników zachęcano do pośpiesznego zadawania pytań z kwestionariusza i zawierania umów oraz do odchodzenia, jeśli ludzie zaczęli nabierać podejrzeń, – stwierdzili pracownicy zatrudnieni na zlecenie.

Źródło

Google

To głęboko nieetyczne i niewłaściwe – liderzy z Randstad mieli otwarcie mówić do swoich pracowników, że bezdomni mają gdzieś prywatność i najprawdopodobniej po kilku dniach zapomną o tym, że brali udział w takim badaniu. Nie będą też raczej rozmawiać z mediami o tym, że Google coś takiego zainicjowało – bo któż chce rozmawiać z nierzadko nietrzeźwymi i brzydko pachnącymi bezdomnymi?

To przypomina mi odrobinę „odbębnianie” praktyk na studiach. Dostawaliśmy listę adresów, w których jako studenci mieliśmy do przeprowadzenia badania ankietowe – ale nie zawsze nam otwierano. Niektórzy studenci „wycwanili się” i jeżeli dostali przydział na badania w szemranych dzielnicach, wystarczyło przejść się po ulicy i znaleźć lekko zmęczonego życiem, odrobinę nietrzeźwego człowieka. Z nim ankietę przeprowadzało się szybko, potem fejkowe dane, numer telefonu i voila. Wszystko po to, by w razie kontroli terenowej kierownika badań na uczelni „nie wpaść”. Badanie się odbyło? Odbyło, wszystko jest w porządku.

Google ma teraz trudny orzech do zgryzienia: nie dość, że podwykonawca firmy wykorzystywał niewiedzę osób gorzej sytuowanych, to w dodatku… należało dodatkowo wytrenować AI do rozpoznawania twarzy ciemnoskórych. Rasizm i cwaniactwo w jednym – ciekawe, czy ktoś w następnym tygodniu wypomni to Google przy okazji premiery Piksela 4.

The post Ale draka. Google wykorzystywało czarnych bezdomnych do trenowania AI appeared first on AntyWeb.

Nazwa użytkownika

Ostatnio dodana zawartość

Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)
Anonim (niezweryfikowany)