¡No pasarán!

Na początku GTA V jest misja, w której jeden z bohaterów przygotowuje zamach na szefa Lifeinvader. Lifeinvader jest parodią Facebooka w świecie GTA. Zamach polega na tym, że zamachowcy umieszczają ładunek wybuchowy w demonstrowanym przez prezesa spółki na konferencji prototypie zintegrowanego z Lifeinvaderem-Facebookiem telefonu. Konferencja jest transmitowana przez telewizję. Alter ego Zuckerberga odbiera telefon, a wybuch urywa mu głowę.

Są chwile, gdy ta wizja staje się bardzo kusząca. Przyznajcie się, komu to nie przeszło przez głowę? 😉 Ostatnie doniesienia o tym, że Facebook zabawia się w eksperymenty na użytkownikach to niewątpliwie jedna z tych chwil.

Doniesienia obiegły internet kilka dni temu. Okazało się, że Facebook przeprowadził eksperyment w typie tzw. testu A/B badając reakcję emocjonalną na wyświetlany feed (zaproponuje ktoś dobre tłumaczenie tego słowa na polski?). Wywołało to wiele kontrowersji.

Czym jest test A/B? W ujęciu ogólnym jest to test, w którym odbiorcy przedstawia się dwa warianty produktu. Określenie to pojawia się najczęściej w kontekście web designu. Części odbiorców prezentuje się jedną wersję stron www, a innym drugą i mierzy w jakiś sposób reakcje. Facebook poszedł z tym dalej – nie chodziło tylko o estetykę, ale to reakcję emocjonalną na treść.

Eksperyment wiele do światowej nauki nie wniósł. Nie znamy szczegółów dotyczących poprawności metodologicznej badania, ale rezultat, który opublikowano nie dał żadnych wyników. Ustalono, że osoby uraczone bardziej pozytywnym feedem opublikowały o 0.7% mniej negatywnych słów, a osoby, którym zaserwowane smutne posty opublikowały o 0,1% mniej pozytywnych słów. Dane przedstawiono nam w iście dziennikarskim stylu, więc zainteresowanych wynikami odsyłam do abstraktu badania. Ze względu na wartości możemy podejrzewać, że wyniki są w granicach błędu statystycznego. Według mnie, jeśli przez tydzień w styczniu 2012 chodziłeś smutniejszy lub weselszy niż zazwyczaj, to raczej nie możesz za to winić Facebooka. Co zatem jest nie tak z tą sprawą?

Kwestia legalne

Facebook broni się twierdząc, że regulamin pozwala na tego typy pogrywanie z użytkownikiem. W niewinnie brzmiącym fragmencie regulaminu Facebook informuje nas, że wykorzystuje nasze dane:

w celu obsługi operacji wewnętrznych, w tym rozwiązywania problemów, analizy danych, testów, badań i usprawniania usług.

Tylko tyle i aż tyle. Szkoda, że jak wyśledził Forbes, postanowienie to dodano do regulaminu kilka miesięcy po przeprowadzeniu badania, które wzburzyło opinią publiczną. Zatem żadnej zgody na manipulowanie emocjami użytkowników, wśród których których wielu było niepełnoletnich, nie było. Nie było również zgody komisji etycznej, która funkcjonuje w samym Facebooku.

Po pierwsze nie podoba mi się idea, że ktoś może usiłować wpływać na mój nastrój bez mojej wiedzy. Nie lubię nawet, gdy ktoś próbuję manipulować moimi emocjami, gdy o tym wiem, jak Lars von Trier 😉 Co do zasady eksperymenty wykonuje się za zgodą zainteresowanych – czasami nie mówi się, czego eksperyment dotyczy, ale zgoda na udział musi być. Zagrywka z dodaniem po kryjomu niewinnie brzmiącego punkcika do długaśnego Terms of Service nie może spełniać wymogów tego rodzaju poinformowania. Rejestrując się na Facebooku wyrażamy blankietową zgodę na eksperymenty na nas dotyczące czegokolwiek? Dziękuję bardzo.

Pozostaje też kwestia braku kontroli nad eksperymentem. Wynik badania został przedstawiony jako efekt studiów nad „zarażaniem się emocjami”. Jestem ciekaw, czy badanie rozpoczęto z założeniem badania właśnie takiego zjawiska. Starą, nieetyczną metodą manipulowania wynikami badań jest rozpoczęcie badania jakimś założeniem, a w trakcie zbierania wyników (z których np nic nie wynika pod kątem pierwotnego założenia) zmiana założenia, żeby coś wyszło.

COO Facebooka Monika Bickert w bardzo swoisty sposób tłumaczyła się z operacji:

Przyjrzyjmy się kluczowemu fragmentowi jej wypowiedzi:

Wskazałeś na kilka interesujących kwestii i jedną z nich jest napięcie pomiędzy ustawodawstwem a innowacją. […] Jeśli przejdziesz się po campusie i posłuchasz rozmów inżynierów, chodzi o to „jak uczynimy ten produkt lepszym”, „jak lepiej dostosujemy się do potrzeb populacji używając tego produktu” i „jak pokażemy im więcej tego, czego chcą a mniej tego, czego nie chcą oglądać”.

I to jest innowacja. To z tego powodu zawsze gdy patrzysz na Facebooka czy YouTube zawsze widzisz nowe funkcje. I to z tego powodu, jeśli masz irytującego kolegę z liceum, który codziennie wrzuca zdjęcia swojego dziecka, nie oglądasz tych zdjęć w swoim news feedzie.

Więc martwimy się, gdy widzimy, że ustawodawstwo może stłumić taką kreatywność i tę innowację. Jednocześnie to nasz obowiązek […] upewnić się, że jesteśmy transparentni w tym co robimy i że ludzie rozumieją dokładnie to, co zamierzamy zrobić.

Oczywiście Facebook zrobił wszystko dokładnie odwrotnie niż powiedziała Pani BIckert w ostatnim akapicie – nie było żadnego informowania i żadnej przejrzystości. Bardziej niepokojące jest jednak to rezonujące technokracją podejście do innowacji, jako wartości ważniejszej niż dane osobowe oraz nienaruszalność psychiczna użytkowników. Ten eksperyment to błahostka, ale z filozofii, którą COO Facebooka zdradza w zalinkowanym wywiadzie, jasno możemy odczytać hierarchię wartości kasty, do której należy.

Nie byłaby to istotna sprawa, gdyby nie to, że miliard ludzi umieściło swoje dane osobowe i informacje o sobie na bezprecedensową skalę na serwerach należących do prywatnego podmiotu. Słusznie, że ludziom włączył się dzwonek alarmowy, bo to sytuacja podobna to hegemonii Google’a, którą kiedyś komentowałem. Nie mam za grosz zaufania do etyki Facebooka. Uważam, że w imię swojego rozumienia innowacji oraz etosu skuteczności nie cofną się przed niczym i wszyscy powinniśmy mocno patrzeć im na ręce. W Europie, z resztą, już zaczęto to robić w związku z tą sprawą – oby nie uszło im to płazem.

Photo Dimitris Kalogeropoylos @ Flickr (CC BY-SA 2.0)