Този сайт използва „бисквитки“ (cookies). Разглеждайки съдържанието на сайта, Вие се съгласявате с използването на „бисквитки“. Повече информация тук.

Разбрах

Алгоритъм на Facebook ни прави нещастни нарочно

Няма данни дали служителите на компанията не са опитали да приложат алгоритъма и на Марк Зукърбърг, за да видят ефекта върху компанията
Няма данни дали служителите на компанията не са опитали да приложат алгоритъма и на Марк Зукърбърг, за да видят ефекта върху компанията

От Facebook не са се поколебали да експериментират с 689 хил. потребители на мрежата, като на половината от тях са показвали само отрицателните постове на приятелите им, а на другата половина само положителните. В мащабното социално проучване от интернет гиганта само с няколко промени в кода на услугата са успели (поне така отчитат резултатите им) да направят хората по-нещастни или по-щастливи - както те преценят.

Проучването е проведено съвместно с учени от Корнуел и Калифорнийския университет и е филтрирало стените на потребителите - коментарите, видеата, картинките и линковете, публикувани от техни приятели. При едните е намалено "емоционално позитивното съдържание", при другите обратно - намалено е "емоционално негативното съдържание".

В продължение на седмица учените са наблюдавали как се променят постингите на двете групи хора. Резултатът според тях е потвърждаващ - този метод работи. "Резултатите показват, че емоциите са заразителни. Емоциите, споделени от приятелите в социалната мрежа, се отразяват на нашето собствено настроение, без нашето знание. За първи път това е доказано експериментално", твърдят Адам Креймър от Facebook и неговият екип.

За да определят дали един пост е позитивен или негативен от Facebook са проверявали езика, на който комуникира потребителя, използвайки софтуер,  наречен Linguistic inquery and Word Count. Ако програмата засече позитивна или негативна дума, определя постинга по съответния начин. За да запазят все пак някаква лично пространство на хората, учените не са виждали конкретните постове на отделните потребители,a единствено как алгоритъмът ги е разпознал. Но това пък означава, че учените не са имали възможност да проверят дали наистина написаното е правилно определено.

Резултатите от проучването са привлекли вниманието на хората, но може би не така, както са очаквали от компанията. Много потребители са останали шокирани от действията на социалната медия.

Ако Facebook може да си играе с емоциите на потребителите си с малка промяна на алгоритъм и то не само в позитивна, но и в негативна насока - не означава ли това, че компанията е накарала хиляди от потребителите си да бъдат по-нещастни, дори без да ги попита или да поиска тяхното разрешение?

Дори обаче да не сте станали жертва на експеримента, той все пак показва, че е добре да подбирате по-внимателно хората, с които общувате в социалните мрежи.

 

Най-четените