Új Szó, 2016. június (69. évfolyam, 127-152. szám)

2016-06-08 / 133. szám, szerda

181 DIGITÁLIA 2016. június 8. | www.ujszo.com A Facebook elbutítja az emberiséget A Facebookot másfél milliárd ember használja, és ezek csaknem kétharmada fontos hírforrásnak tekinti (Képarchívum) INDEX-HÍR A Facebook tökéletesre optimalizálta azt az algoritmusát, ami minden felhasználónak azt mondja, amit az hallani szeretne, függetlenül attól, hogy az igaz vagy sem. A kényelmes buborékokba zárt felhasználókat lenyelik a kamuhírek ós az áltudományok, ás amikor a közössógi oldal megpróbál tenni ez ellen valamit, azzal gyújtja magára igazán a házat. Hetek óta áll a bál a Facebook kö­rül, és bár a botrány minket közvet­lenül nem érint, az egész jelenség, és főleg a háttere meg következményei számunkra is nagyon fontosak. Ve­gyük is át gyorsan, mi váltotta ki az össznépi hőbörgést. Torzított hírfolyam A Facebook elindított az oldalon egy Trending Stories nevű részt, ahová az éppen sokat olvasott- megosztott-kommentelt híreket emelte ki. A funkciót csak néhány országban, és angol nyelven aktivál­ták. Azt, hogy mi olyan fontos és ér­dekes, hogy a Trending ablakba ke­rüljön, nem algoritmusok, hanem egy szerkesztői csapat válogatta össze. Kiszivárgott dokumentumok és volt szerkesztők nyilatkozatai alapján felmerült a vád, hogy a cikkek ki­emelése koncepciózus volt: a kon­zervatív irányultságú forrásokat és tartalmakat háttérbe szorították, a li­berálisokat előnyben részesítették. A Facebook először cáfolt, aztán annyit engedett, hogy egyes szerkesztők személyes elfogultsága valóban tor­zíthatta a válogatás szempontjait, végül bejelentették, hogy teljesen át­alakítják a Trending szekció kezelé­sét. Mindez az amerikai elnökvá­lasztás évében különösen érzékeny téma, így a botrány hamarosan addig nőtt, hogy Mark Zuckerberg szemé­lyesen találkozott és tárgyalt a re­publikánus párt prominenseivel, és még az is felmerült, hogy állami sza­bályozás alá kellene vetni az egész Facebookot, ahogy van. A dolog azért vert ekkora hullá­mokat, mert a Facebook az elmúlt pár évben csendesen közösségi oldalból a világ legnagyobb médiacégévé nőtt: az emberek már nem az ismerőseik nyaralási fotóiért járnak az oldalra, hanem az ott megosztott tartalma­kért, cikkekért, videókért. A Facebo­okot másfél milliárd ember használ­ja, és ezek jó része (egyes felmérések szerint csaknem a kétharmaduk!) fontos hírforrásnak tekinti. Sokan egyenesen a legfontosabb hírforrás­nak. A média pedig behódolt, és úgy ugrál, ahogy a Facebook fütyül neki. És itt nem is csak a facebookos teije- désre optimalizált kattintásvadász új­ságírás térnyerésére gondolunk. Ha a Facebook azt mondja, ezentúl a vi­deók nagyobb prioritást kapnak az üzenőfali megjelenésekben, a világ­sajtó hirtelen felfedezi magának a vi­deós formátumot (és olyan sikertör­ténetek nőnek ki a semmiből, mint a Tasty). Ha a Facebook elkezd kísér­letezni az élő videókkal, a világsajtó egy emberként indul rá az élő vide­ókra. A legnagyobb média Soha a sajtótörténetben nem volt még egyetlen cégnek sem akkora ha­talma a média fölött, mint most a Fa- cebooknak. Amerikában például a monopóliumtörvény tiltja, hogy egy kézben legyen az ország lakosságá­nak több mint 45%-át elérő tévécsatoma-portfólió. A Facebook ezt az elérést simán túllépi, csak hát a törvényalkotás sebessége kicsit le­marad attól, ahogy a közösségi oldal felzabálja a médiát. Másrészt meg ugye nincs is saját tartalma, csak hír­aggregátorként viselkedik. Harmad­részt meg szólásszabadság van, és ha a Facebookot médiacégnek tekintjük, meg kell adnunk neki az összes többi médiacéget megillető jogot, vagyis azt, hogy a saját szája íze szerint dönt­se el, hogy mi a fontos hír, és mi nem. Jogilag a Facebook olyan tartalmakat emel ki, és olyanokat hallgat agyon, ami csak jólesik neki, nem törvényi kötelessége a semlegesség és elfogu­latlanság. A Facebook nem elvből, hanem hideg üzleti számításból igyekszik semleges maradni, hiszen úgy tudja a felhasználóit elégedett­nek tudni, ezáltal megtartani (és ez­által reklámokat tolni eléjük és egy csomó pénzt keresni), ha nem elfo­gult egyetlen irányban sem. Sőt, iga­zából akkor tudja a felhasználókat hosszú távon magához láncolni, ha mindenkinek olyasmiket mond, ami­ket az hallani szeretne. És ez itt min­den probléma forrása. Buborékban élünk Eli Pariser, amerikai szakember 2011-ben állt elő a filterbuborék kon­cepciójával, ami nagyjából annyit ta­kar, hogy a közösségi web minden­kinek készít egy kis buborékot, ami­be csak a vele egyetértő és őt támo­gató véleményeket engedi be, és minden mást kizár. Ez egyébként va­lahol az emberi agy működésének le­másolása: a pszichológusok megerő­sítési torzítás néven ismerik a jelen­séget, amit a Wikipedia így foglal össze: A megerősítési torzítás az em­bereknek azon hajlandósága, hogy azokat az információkat részesítik előnyben, amelyek igazolják saját előfeltételezéseiket vagy hipotézisü­ket, tekintet nélkül az információ igaz vagy nem igaz voltára. Ha az ember nem találkozik a sa­játjától eltérő véleménnyel, az ké­nyelmes, de hosszú távon minden­képpen káros dolog. Egyrészt azért, mert ilyenkor nincs vita, nincs új perspektíva, nem kérdőjelezünk meg dolgokat, nem kényszerít rá semmi a gondolkodásra. Másrészt meg azért, mert ha véletlenül mégis bejut a bu­borékba valami zavaró dolog, arra csak gyűlölködéssel tudunk vála­szolni. A probléma gyökere az, hogy a hülyeség jobban teljed, mint a nem hülyeség. Ézt konkrét tudományos kísérletekkel bizonyították, ahogyan azt is, hogy ha a hülyeség már elter­jedt, közel lehetetlen a cáfolatát ha­sonló hatékonysággal eltelj eszteni. Mindez persze teljesen logikus, el­végre a kamu sztorik óriási előnyből indulnak a valódiakkal szemben. Sokkal izgalmasabbak, érdekeseb­bek, felháborítóbbak, és megosztásra ingerlőbbek lehetnek, hiszen nem kell a valósághoz ragaszkodniuk. Csakhogy. Ha valaki egy kocsmai beszélgetésben jön elő azzal, hogy a Föld valójában lapos, a repülőgépek kondenzcsíkjai egy globális népirtási kampány jelei, vagy a Nazca- vonalakat a szíriuszi ősmagyarok raj­zolták a perui sivatagba, az illetőt vagy körberöhögik, vagy pár ke­resztkérdéssel rávilágítanak arra, hogy mekkora hülyeséget beszél. Az online környezetben viszont a filter­buborék megvéd ezektől a visszajel­zésektől, és a leghajmeresztőbb hü­lyeséget is egyetértő és támogató tar­talmakkal veszi körbe. Ezért van az, hogy a Facebook optimális környezet az összeesküvés-elméletek, álhírek, és ezoterikus humbugok számára. Ez természetesen nem a Facebook célja, csak a mellékterméke annak a töké­letesre csiszolt algoritmusnak, ami olyan online valóságot épít a felhasz­náló köré, amiben ő kényelmesen ér­zi magát, és sok reklámot hajlandó megnézni. Ez pedig ördögi körbe vi­szi az egyszeri felhasználót: ha egy­szer elhittünk egy hülyeséget, a Fa­cebook további, ezt támogató tartal­makkal vesz körbe, amik megerősítik a hitünket. Mi vagyunk a híradó Felmérések szerint a felhasználók 43 százaléka nem tudja, és nem is ér­dekli, hogy egy Facebookra linkelt cikknek mi a valódi forrása. Egyre megy, hogy a Szabadon ébredők írt valamit, vagy a New York Times, számukra csak az érdekes, hogy a Fa- cebookon olvasták (és ahogy teljed az Instant Articles funkció, ez az arány várhatóan egyre csak nagyobb lesz). És azzal, hogy a Facebook magával a megosztás megjelenítésével hitelesít bármilyen forrást, egy újabb nagyon kínos ponthoz érkeztünk: a saját fe­lelősségünkhöz. Csak a Facebook a hibás? Könnyű mindent a Facebookra fogni, de az a kényelmetlen igazság, hogy a közösségi oldal bárhogy szűri az elénk kerülő híreket, olyasmiről nem tud meggyőzni, amit nem va­gyunk hajlamosak egyébként is el­hinni. Izgalmas dolog belegondolni abba, hogy a Facebook hogyan tudna egy választást manipulálni, de az a helyzet, hogy erre már volt egy kí­sérlet, meglehetősen hervasztó ered­ménnyel. A 2010-es amerikai szená­tusi választásoknál megvizsgálták, hogy mennyire mobilizálta a válasz­tókat a Facebook azzal, hogy egyet­len gombnyomással kiposztolhatta bárki, hogy „hé, én most voltam sza­vazni, menj el te is”, és ez kiemelt he­lyet kapott az ismerősök hírfolyamá­ban. A szavazási hajlandóságot ezzel mindössze 0,4%-kal sikerült meg­emelni. Egy másik kísérletben több mint 600 ezer felhasználó hírfolya­mát manipulálták úgy, hogy a pozitív és vidám tartalmak nagyobb priori­tást kapjanak, majd kielemezték, hogy az érintettek saját bejegyzései mennyivel lettek pozitívabbak és boldogabbak. Nos, 0,07%-kal. A közösségi média előtti időkben az volt, hogy az ember olvasott vala­mit az újságban, vagy megnézett a híradóban, és elhitte, mert ott volt mögötte az adott szerkesztőségbe ve­tett bizalom. A Facebookon azonban mindenki híradóvá válik minden egyes megosztással, amivel megjele­nik az ismerőse hírfolyamában. És mint az előbb láttuk, az emberek jó része számára nincs különbség a New York Times tucatnyi szerkesztőn, lektoron átment, forráskritikával megtámogatott tartalma, és a Szaba­don ébredők hülyesége között (a két cím helyére szabadon behelyettesít­hető bármilyen igazi újság, és álhír- gyár). Minél több követője van vala­kinek a közösségi oldalon, annál na­gyobb - lenne - a felelőssége a meg­osztásaival. Csak hát a gyakorlatban ez nem így megy, lásd például a ve­szélyes áltudományos hülyeségek és kuruzslók mellett kiálló celebeket. Összeesküvés-elméletek Ráadásul az összeesküvéselmélet- hívők mindig sokkal szenvedélye­sebbek, mint az ilyesmire nem fogé­konyak. Tény, hogy a Föld gömbölyű és a védőoltásokban nincsenek titkos agykontrollmikrocsipek. Az átlag­emberek ezt tudják, elhiszik, elfo­gadják, és nem érzik szükségét az ál­landó bizonygatásának. A konteohí- vők viszont képesek napi sok órában azt hajtogatni, és „bizonyítékokat” gyártani rá, hogy de igenis lapos, és de igenis vannak benne, a zsidó gyík­emberek teszik bele. Ezért aztán hiá­ba vannak a hívők sokkal keveseb­ben, a hangjuk erősebb. Egy friss fel­mérés szerint a Pinteresten megosz­tott, oltásokkal kapcsolatos képek 75%-a az oltástagadó álláspont mel­lett van. Tíz éve egy hasonló kutatás még csak 25%-ra tette az ilyen tar­talmak arányát, akkor még persze nem a Pinteresten, hanem a YouTube- on, és a MySpace-en. Mindez addig képes erősödni, hogy a filterbuborékokban megjelenő torz kép a valóságról túlnő az online vilá­gon, és elkezdi formálni a valóságot. Van egy pont, amikor a nonszensz ál­tudományos hülyeséget annyian hi­szik el, hogy a megvádolt élelmiszer­cég inkább kivesz egy ártalmatlan összetevőt a termékeiből, mint hogy elmagyarázná, hogy az valójában nem mérgező. Amikor egy nagyvá­ros lakossága népszavazáson tagadja meg az ivóvíz fluoridos kezelését, mert jobban hisz az összeesküvés­elméleteknek, mint a tudománynak. A Facebook a népszerű tartalmak további terjesztésére lett optimalizál­va, figyelmen kívül hagyva, hogy az adott tartalom igaz-e vagy sem. Üz­letileg ez éri meg legjobban a cégnek, de persze azt ők is látják, hogy ez mel­léktermékként a felhasználók biztos elhülyülésének irányába visz. Zu- ckerbergék jó ideje próbálják a meg­bízható és minőségi tartalmakat tolni az álhírek és a gagyi intemethulladék ellenében, de ennek eddig mindig az lett a vége, hogy utóbbiak gyártói túl­jártak az őket kiszűrni hivatott algo­ritmusok eszén. Mi a megoldás? A megoldás nyilván az, hogy igazi embereket kell alkalmazni az ocsú és a búza szétválogatására, és ezzel máris visszakanyarodtunk a világra­szóló botrányhoz, hogy az ember el­fogult, és a saját politikai nézeteinek megfelelően osztályoz. Pedig az em­beri kurátorok elvileg betonbiztos szabályok mentén dolgoztak. Alap­ban volt egy tíz, szupermegbízható­nak kinevezett forrás (BBC, CNN, Fox News, Guardian, NBC News, New York Times, USA Today, The Wall Street Journal, Washington Post, Yahoo News), ha ebből legalább öt megírta az adott sztorit, akkor kerül­hetett be a Trending címke alá a ki­emelt hírek közé. És volt egy még szélesebb merítés, ezer, fontosnak és megbízhatónak ítélt oldallal, amiket egyáltalán forrásnak tekintett a Face­book rendszere, és ahonnan a szortí­rozandó tartalmakat behúzta. Ha egy ilyen, két szinten is szigo­rúan szabályozott rendszer csődöt mondott és botrányba fulladt, az egyértelműen azt jelenti, hogy a fon­tos hírek kiválogatásában az emberi tényező szükségszerűen gyenge láncszem, és a megoldás az, hogy ad­dig kell okosítani az algoritmusokat, míg azokat már nem tudják átverni az álhírgyárosok. A Google ebbe az irányba tapogatózik a „truth rating” bevezetésével, ami a kereső találati listáinak összeállítását segítené azzal, hogy minden oldalhoz egy megbíz­hatósági értéket rendel. Valószinűleg a Facebook is legalább részben azért öl iszonyú pénzeket mesterséges- intelligencia-fejlesztésbe, hogy ezt a problémát megoldja. De mit lehet tenni addig is, míg ez megtörténik? A megoldás semmi­képpen nem az, hogy a Facebookon hülyeségeket megosztó ismerőseit egyszerűen letiltja az ember, hiszen ezzel csak megerősíti a filterbubo­rékot. A lehülyézés és kioktatás ért­hető okokból szintén nem sokat használ, és sajnos a kutatások sze­rint az sem feltétlenül, ha az ember tényekkel, érvekkel és logikával szembesíti a meggyőzendő alanyt. Pedig ez az egyetlen út, még ha ne­hezen járható is. De annyit minden­képpen megtehetünk, hogy mi ma­gunk ellenállunk, és nem osztunk meg ész nélkül ostobaságokat és ál­híreket. Nem olyan nehéz az áltu­dományos bullshitet, és a kamuhí­reket azonosítani — és minden egyes alkalommal, amikor nem lájkoltunk be, és nem osztottunk tovább egy ilyet, tettünk egy kicsit az ellen, hogy a Facebook végképp elhülyítse az emberiséget.

Next

/
Thumbnails
Contents