С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОK
Вход | Регистрация
4 19 апр 2019, 12:30, 10161 прочитания

Как Facebook ни управлява

Алгоритмите в интернет отговарят за това какво виждат и дори говорят милиарди души в целия свят

  • LinkedIn
  • Twitter
  • Email
  • Качествената журналистика е въпрос на принципи, професионализъм, но и средства. Ако искате да подкрепите стандартите на "Капитал", може да го направите тук. Благодарим.

    Дарение
    Плащането се осъществява чрез ePay.bg

Илюстрация

Темата накратко
  • Алгоритмите на Facebook са отговорни за това какво виждат 2.3 млрд. души по целия свят.
  • Те, както и аналозите им на другите гиганти, стават все по-сложни и все по-малко хора разбират как точно работят и как им влияят.
  • Компанията е критикувана едновременно, че налага цензура и че отваря широка платформа за сеене на омраза.

Част от темата

В балона на алгоритмите

Как да победим системата

Съветите на "Капитал" как потребителите сами да влияят на алгоритмите в интернет

Алън Мертнер: Алгоритъмът постоянно се променя

Директорът рекламно инженерство във Facebook пред "Капитал"



Офисът на Facebook в Лондон се намира на един от затворените площади в центъра на града – но ако човек няма тази информация предварително, е напълно възможно просто да подмине сградата. Върху нея няма никакво означение - нито прочутата буква f, нито палец нагоре. Нищо. Чак вътре в кафенето веднага след главния вход ще видите първия непогрешим сигнал, че се намирате не просто в обикновена бизнес сграда, а в едно от сърцата на най-голямата социална мрежа в света - огромно fb в цветовете на дъгата.


В тази ненабиваща се на очи сграда се случва нещо подобно на самата нея - незабележимо и огромно. Там се създават част от алгоритмите, които определят какво виждат общо 2.3 млрд. души всеки път, когато влязат в мрежата. Това прави Facebook вероятно най-могъщата организация с безпрецедентен достъп до ежедневието и влияние върху мнението и поведението на хората в историята на света. Малко модифициране на компютърния код може да пренасочва огромни рекламни парични потоци, да разбива бизнес модели и да накланя везните в политиката - не винаги нарочно и понякога в неочаквана посока.

Технологичният гигант с пазарна капитализация от над 500 млрд. долара управлява какво точно виждат тези 2.3 млрд. потребители не с помощта на огромен екип. Напротив, компанията разполага с едва 30 хил. служители в целия свят, както и още няколко хиляди души, преглеждащи съдържание през аутсорсинг компании (от началото на годината и София вече има своеобразен Facebook офис, който обаче се оперира от Telus и не разглежда съдържание на български). Всичко важно в социалната мрежа всъщност се управлява по един начин – чрез безкрайно ефективни, вечно променящи се, но и безлични алгоритми, които решават какво точно ще видите днес – и, разбира се, какво няма да видите.

През последните години основното притеснение на правителства, регулатори, граждански активисти и др. е за това как се отразява Facebook върху политиката и изборите. Но ефектите на социалната мрежа достигат до много по-дълбоко ниво за всеки потребител. Все по-големият брой клиенти на компанията, както и все по-дългото време, прекарано в мрежата, правят и действието на алгоритмите все по-важно.



През 2012 г. например Facebook прави експеримент със 700 хил. свои потребители без тяхно знание, като променя алгоритъма така, че той да показва повече негативни новини. Без да е изненада за никого, това води до промени в емоционалното състояние и поведението в мрежата на голяма част от участниците. Случаят излиза наяве едва две години по-късно. Вместо извинение за играта с емоциите им оперативният директор на Facebook Шерил Сандбърг изразява съжаление, че експериментът "не е бил комуникиран правилно".

[Shutterstock]

Тогава Facebook има "едва" 1.2 млрд. потребители, активни всеки месец. Днес, ако сметнем и Instagram, Messenger и WhatsApp, корпорацията разполага с умопомрачителните 2.7 млрд. потребители – или над една трета от световното население.

Ако харесвам котки...

Основният алгоритъм на Facebook, който определя кои публикации и в какъв ред всеки вижда, се разработва в Ню Йорк. Пред "Капитал" говорител на Facebook Newsfeed коментира, че целта на алгоритъма е "да показва на всеки индивидуален потребител историите, които са важни за него". Сортирането не е проста задача – средностатистическият ползвател на Facebook може да вижда до 3000 публикации на ден в потока си от информация, но на базата на сигнали какво всеки харесва, с кого си общува най-често и други този брой се намалява десетократно.

Най-важните фактори за това дали една публикация ще се появи в потока от информация са от кого е публикувана, какъв е типът на публикацията (статус, снимка, връзка) и колко е популярна тя сред останалите хора в мрежата на потребителя. "Оттам ние прогнозираме колко е вероятно да коментирате, харесате или реагирате на дадена публикация", казват от американския екип. Съответно всяка публикация има съвсем обективна, математическа стойност, базирана на всички фактори, които я изпращат по-нагоре или по-надолу в началната страница.

В превод това означава, че ако харесвате снимки на котки, алгоритъмът ще ви показва все повече котки в личния поток от публикации. Притеснителната част е, че алгоритъмът работи по същия начин и за всичко останало. Съответно, ако харесвате само медии с лява или с дясна политическа насоченост, вие ще виждате все повече и повече съдържание, което да е в "комфортната ви зона" и да подхранва това, в което вярвате предварително. Така, накратко, се създават идейните балони – или "ехокамери", какъвто е модерният термин за тях.
Всеки с алгоритъма си

Facebook далеч не е единственият интернет гигант, който използва алгоритми, чието влияние надхвърля границите на самата платформа. Компютърни програми вече от години извършват огромната част от търговията на финансовите пазари. Алгоритмите на Amazon до голяма степен решават кои ще са най-продаваните книги или въобще продукти онлайн за годината, а тези на Google – кои ще са най-гледаните видеа, най-показваните уеб страници, най-четените новини и дори къде ще се струпат коли в задръстване и евентуално как да се заобиколи. Когато Spotify ви предлага да чуете някоя банда, това е персонализирана препоръка, базирана на заключението на алгоритмите на стрийминг услугата. По същия начин работи и Netflix, която смята кои са любимите ви сериали и ви предлага същите с подобна тематика, сюжет или атмосфера. Интернет отдавна принадлежи на алгоритмите, базирани на изкуствен интелект, защото те са най-бързият, лесен, ефективен и евтин вариант както за самите компании, така и за потребителите. Обаче те съдържат и опасността от затваряне в създадени по поръчка персонализирани балони.

Огромната част от хората не са наясно за собствените си социални балони нито в реалния, нито във виртуалния си живот, защото рядко им се удава да надзърнат отвъд тях. Като към това се добави и незнанието за това как работят алгоритмите на Facebook и как те допълнително ограничават алтернативните гледни точки, резултатът е свят, който звучи като антиутопия. Мрежата, създадена с мотото да свързва хората, прави повечето от тях затворени в своя собствена клетка – например онези, които искат да виждат повече позитивни новини и се оплакват от прекалено големия брой негативни такива в потока си от новини, всъщност ще виждат все повече негативни новини. Защото алгоритъмът автоматично смята, че има по-голяма вероятност те да обърнат внимание, да реагират или напишат коментар на подобен тип съдържание.

Според екипа на Facebook Newsfeed обаче спорът за поляризацията и ехокамерите е много по-стар от социалните мрежи. От компанията се позовават на проучване на Reuters от 2017 г., според което 44% от американските потребители на социални мрежи получават новини от разнообразни източници – два пъти по-голям процент, отколкото при тези, които използват само традиционни медии.

Разглеждането на ефекта от Facebook само от гледна точка на политиката обаче е грешно. Социалната мрежа се отразява най-много на емоционалното състояние на хората, за което има и постоянно нарастващ брой изследвания. Конфетите от харесвания, "уау", "любов", "смях" и "гняв" реакции всъщност ни затварят още повече в машината, без да знаем точно какъв е ефектът на това, което правим – как точно всеки клик се отразява на това, което ще виждаме в бъдеще. Не помага и че Facebook всъщност следи какво правим и извън платформата, като алгоритмите работят и когато сте във външни сайтове, които имат някаква връзка (възможност за влизане в системата или харесване на съдържание) със социалната мрежа.

Facebook дава възможност на потребителите си да влияят на алгоритъма и по обратния път – като му казват какво не искат да виждат чрез скриване на отделни публикации или конкретни хора. Отскоро Facebook има и бутон "Защо виждам това" не само за реклами, но и за публикации – така например можете да разберете, че днес виждате тази тема от "Капитал", защото преди седмица сте споделили статия от вестника на съвсем друга тематика, например за имотните проблеми на някого със сауна на терасата си. Тези инструменти обаче са далеч от масово ползване от страна на потребителите (съвети как да имате по-голям контрол върху това, което виждате, четете тук). Така какво виждате не само вие, но и 2.3 млрд. души по целия свят, остава почти изцяло в ръцете на хиляди редове код без човешка намеса.

Неутрална платформа или министерство на истината

Какво и защо виждате във Facebook обаче рядко е актуалната тема за разговор около социалната мрежа. Далеч повече внимание се обръща на това какво въобще имате право да казвате на този огромен дигитален площад. Компанията започна съществуването си със свободолюбиви слогани като "Да свържем целия свят" и "Да дадем на хората възможност да споделят всичко". След като Facebook наистина успя да свърже целия свят, се оказа, че споделянето на всичко от всеки далеч не е мечта за всички.
"Дори с неограничени човешки ресурси Facebook не може да бъде арбитър на истина и лъжа – не и без да спре да бъде Facebook. Ограничаването и свалянето на съдържание е против всеки корпоративен инстинкт на компанията."
Марк Съливан Fast Company

Днес Facebook налага все по-голяма цензура върху потребителите си (въпреки че компанията разбираемо не би използвала точно тази дума). Причината не се крие в някакво желание на Facebook да се превръща в дигитален аналог на авторитарен диктатор – напротив, без външен натиск компанията едва ли би помръднала от оригиналния си утопичен идеализъм. Но външния натиск го има и Facebook се оказа между чука и наковалнята.

От едната страна стоят тези, които искат изцяло свободно слово – включително и слово на омразата, обиди и без категоризация на истински и фалшиви новини. От другата са тези, които искат точно този тип говорене да бъде ограничено – не само във
Facebook, но и в Twitter, YouTube и останалата част от интернет. За момента Facebook не оставя съмнение, че завива, макар и сравнително бавно, към лагера на тези, които искат ограничения. Защо? Вероятно защото от тази страна са правителствата и регулаторите, в които е концентрирана реална власт, която може да промени бизнес модела на компанията. А вероятно защото там са и платежоспособните клиенти в лицето на големите рекламодатели.

Общото между двата лагера е само едно – те са недоволни от Facebook, но по напълно противоположни причини. Докато едната смята, че Facebook налага масова цензура, другата е на мнение, че компанията позволява в платформата си реч на омразата, фалшиви новини и не прави достатъчно. Такъв е случаят дори с бивши вътрешни лица в компанията като Роджър Макнами – ранен инвеститор и човекът, дал на Марк Зукърбърг съвета да не продава компанията си на Yahoo. В скорошната си книга Zucked той критикува остро както Зукърбърг, така и Шерил Сандбърг, а Facebook нарича многократно "заплаха за демокрацията".

Отровният плод на компютърния код

Катарзисът за
Facebook започна след използването на интернет платформите за масова пропаганда и кампании за дезинформация по време на изборите за президент в САЩ през 2016 г. В продължение на цялата 2017 г. напрежението върху компанията се увеличаваше, за да достигне до кулминацията си през пролетта на миналата година. Тогава не само Марк Зукърбърг най-накрая се изправи пред американския Конгрес, но и компанията за пръв път публикува своите "Стандарти на общността" – вътрешният закон, по който решава кое е позволено и кое не.

Тези стандарти не са алгоритъм и се пишат от реални хора, но се променят почти толкова често, колкото и компютърният код. Посоката е ясна - все повече неща са забранени. И когато има промени, разбира се, не можеш да разчиташ, че всички 15 хил. модератори на съдържание в платформата ще променят изведнъж мисленето си. Така че голяма част от публикациите, които се изтриват, се свалят от... точно така, алгоритми.

След години на опозиция, Марк Зукърбърг заяви открито подкрепа за повече контрол на съдържанието и външна регулация

След години на опозиция, Марк Зукърбърг заяви открито подкрепа за повече контрол на съдържанието и външна регулация

[Reuters]
Пред "Капитал" от Facebook Newsfeed коментираха, че за свалянето на съдържание се използва микс от човешки усилия и технология. Но големите инвестиции са насочени към развиването на изкуствен интелект. През периода юли-септември 2018 г. например алгоритмите на компанията са премахнали 2.9 млн. публикации, които са били против правилата на платформата. Това е близо двойно повишение спрямо година по-рано. Общо 52% от сваленото съдържание в платформата за този период е плод на решения на компютърния код – преди да бъде видяно от който и да било потребител.

Така мечтата на Марк Зукърбърг, изразена пред Конгреса, че един ден 99% от "лошото" съдържание в платформата ще бъде сваляно от изкуствен интелект, изглежда не само реалистична, но и сравнително близо в бъдещето. "Бъдещето" обаче е ключова дума, защото само преди седмици атентатът в Крайстчърч, Нова Зеландия, при който бяха убити над 50 души, бе стриймван на живо във Facebook, а алгоритъмът не успя да се справи със свалянето на всички копия от материала в рамките на цели 24 часа.

Проба – грешка

При последната голяма промяна в правилата на Facebook – забрана върху изразяването на "бял национализъм" и "бял сепаратизъм", бяха изтрити хиляди потребителски профили и страници. Историята има и чисто български ъгъл, след като по-малко от седмица след приемането на промените бе изтрит профилът на журналиста Мартин Карбовски и всички администрирани от него страници с общо стотици хиляди последователи. Същото се случи и с образователната платформа Khan Academy.

Едва няколко дни по-късно те бяха върнати обратно, с непокътнат брой харесвания. Facebook не коментира отделни случаи, но обяснението тук изглежда просто: при вкарването на новите забранени думи в алгоритъма той автоматично е изтрил всичко по пътя си, без да различава кое е образователна платформа и кое – публицистика.
"Facebook е една от най-невероятните истории на успеха в историята на Силициевата долина. Проблемите, с които се срещаме днес, са родени от бизнес модел, който доведе до фантастични резултати за компанията, но и създаде странични ефекти с прекалено висока цена за обществото."

Роджър Макнами бивш съветник на Марк Зукърбърг и автор на Zucked

Така, въпреки че компанията е създала невиждани по своята сложност алгоритми, когато стане дума за вкарването на нови, по-мащабни правила относно кое е позволено и кое не в социалната мрежа, Facebook се връща към най-стария подход в историята: проба - грешка. Трудните за разбиране и обяснение критерии като "бял национализъм" и "бял сепаратизъм" също не са от помощ и както компанията сама призна при обявяването на новината – границата между национална гордост и национализъм е достатъчно размита и често непонятна дори за естествения, а какво остава за изкуствения интелект.

Ако
Facebook бе избрала пътя на повече свобода за потребителите, отговорът на нейните проблеми щеше да е прост - оставете хората на мира. Тогава обаче и потенциалните щети от употребата и злоупотребата с влиянието, осигурявано от социалната мрежа, щяха всеки път да сеят критики към компанията и да завихрят бури за нейния PR отдел. Избраният вместо това подход към по-голям контрол и сваляне на съдържание обаче не съдържа подобно просто решение.

Проблемът както за потребителите, така и за самата платформа е, че и правилата, и алгоритмите стават все по-сложни. Посоката, в която
Facebook е поела, е тази на още повече правила и още повече изкуствен интелект и машинно самообучение, но това не намалява недоволството от нито една от двете страни и така тя е в постоянен режим на отбранителен PR.

Макар компанията често да е критикувана, мразена и осмивана, за повечето потребители на Facebook всеки избухнал скандал трае само дни, а след това всички се връщат към споделянето и лайкването, без да влагат твърде много мисъл във философски теми за алгоритмите и хората. А това естествено прави социалната мрежа още по-могъщ инструмент и поставя ребром въпроса - каква е логиката Facebook да не се възползва максимално от продукта, който е създала сама и който потребителите ползват изцяло доброволно? Единственото обяснение самата тя да дава заден ход и Марк Зукърбърг да призовава за регулация е страхът, че някоя поредна грешка с милиарди човешки съдби може да бъде прекалено голяма, така че да няма възможност за нова проба. Това не е точно апокалиптичната война между хора и машини, за която научнофантастичните книги и филми ни предупреждават от времето на Айзък Азимов, но антиутопични аналогии не липсват. Проверете, алгоритмите вероятно са преценили коя точно е подходяща за вас и са я пуснали в балона ви.
  • Facebook
  • Twitter
  • Зарче
  • Email
  • Ако този материал Ви е харесал или желаете да изразите съпричастност с конкретната тема или кауза, можете да ни подкрепите с малко финансово дарение.

    Дарение
    Плащането се осъществява чрез ePay.bg

Прочетете и това

Нагоре по веригата Нагоре по веригата

Блокчейн технологията напуска нишовата среда на криптовалутите, а големите световни компании масово инвестират в нея

18 май 2019, 1931 прочитания

Дигитални модели Дигитални модели

Чат навсякъде; Застраховка срещу климата; Намери ми колеж

10 май 2019, 2637 прочитания

24 часа 7 дни

Кариерен клуб: ИКТ »

"Юбер България" помага на студенти за първата им среща с работодатели

Компанията организира две лекции преди кариерния форум във Факултета по математика и информатика на СУ "Св. Климент Охридски"

Да си изградиш професия

В Института по строителство на Santa Fe College са едни от най-перспективните специалности във Флорида

Студенти от 17 до 71 години

Хора на всякаква възраст сменят професията си в Центъра за ускорено обучение на американския Valencia College

Половината от работните места за IT специалисти във Вашингтон са незаети

Освен различни компютърни специалности Northern Virginia Community College има и стажантска програма с Amazon

Работници по поръчка

Професионалните колежи в САЩ осигуряват на бизнеса точно кадрите, които му трябват, максимално бързо

 
Капитал

Абонирайте се и получавате повече

Капитал
  • Допълнителни издания
  • Остъпки за участие в събития
  • Ваучер за реклама
Още от "Технологии и наука" Затваряне
Дигитални модели

Кои са новите дигитални иновации от тази седмица

Къде удря търговската война между САЩ и Китай

Митата между Вашингтон и Пекин няма да доведат до големи директни икономически загуби, но увеличават световната несигурност

В режим на готовност

Очакването за следваща криза внася доза предпазливост в инвестиционните стратегии

Индексите на борсата започнаха седмицата с ръст

"Стара планина холд" реализира най-голям ръст след съобщението за дивидент

Миролио продаде дела си в "Булгартабак" за 26.6 млн. лв.

През фондовата борса бяха прехвърлени 7.22% от капитала, които отговарят точно на дела на италианския бизнесмен

Работохолици до доказване на противното

Марк Грифитс, професор по поведенческо пристрастяване и директор на звено за изследване на хазарта в Nottingham Trent University

In memoriam: Владимир Трендафилов (1955 - 2019)

"Не си създавай кумир" - това беше първата заповед, която следваше