VALÈNCIA, 5 (EUROPA PRESS)
Apel·lar a les emocions és, segons multitud d’estudis, una estratègia recurrent en la desinformació que inunda les xarxes en contextos de crisis, com la tràgica dana del 29 d’octubre. No obstant açò, ara un estudi europeu revela un fenomen poc estudiat fins al moment: en cada plataforma, els continguts operen amb un paradigma emocional diferent. Així, els missatges enganyosos en X s’associen principalment a la tristesa i por, mentre que en TikTok, es correlacionen amb un augment ira i disgust.
Així es desprèn del documente ‘Patrons emocionals divergents en la desinformació en les xarxes socials. Una anàlisi de tuits i tiktoks sobre la DANA a València’. Es tracta d’un treball que acaba de publicar l’Iberian Digital Media Observatory, un organisme cofundat per la Comissió Europea que treballa en col·laboració amb l’European Digital Media Observatory en la lluita contra la desinformació a Espanya i Portugal. Ha sigut dirigit pels investigadors de la Universitat Politècnica de València Iván Arcos i Paolo Rosso i el de la Universitat de Navarra Ramón Salaverría.
Els especialistes han analitzat la difusió de desinformació en TikTok i X durant la barrancada de València, que ha arrasat gran part de la província i ha causat més de 220 víctimes mortals. Per a açò, es va anotar manualment un conjunt de dades de 650 publicacions per a distingir entre desinformació i contingut confiable –amb atenció a paraules claus, àudios etc.– i s’ha emprat el mètode comparatiu. També s’ha realitzat un experiment separat utilitzant la intel·ligència artificial GPT-4o en una configuració Few-Shot per a avaluar el seu potencial com a eina per a l’anotació automatitzada.
Amb estes ferramentes, s’han centrat en els trets emocionals predominants en les publicacions en X i TikTok i han aconseguit identificar un fenomen poc investigat fins ara: el fet que, en cada plataforma, els continguts informatius operen amb un paradigma emocional diferent. Esta conclusió porta a pensar que “és necessari comprendre millor l’impacte de les dimensions emocionals en la credulitat cap al contingut de desinformació, així com la predisposició a compartir-ho”, asseveren els investigadors en l’article que arreplega Europa Press.
En concret, determinen que la desinformació sobre X s’associa principalment amb una major tristesa i por, mentre que en TikTok, es correlaciona amb un augment ira i disgust. D’esta manera, l’informe reforça la conclusió, ja inclosa en multitud d’estudis previs, que apel·lar a les emocions és una estratègia recurrent en missatges deliberadament enganyosos. No obstant açò, i gràcies a l’enfocament comparatiu, revela que cal tindre en compte la diferent operativa d’estes emocions segons la xarxa social emprada.
Així mateix, l’anàlisi lingüística –utilitzant el diccionari LIWC– determina que el contingut el contingut confiable utilitza un llenguatge “més articulat i fàctic, mentre que la desinformació empra negacions, paraules perceptuales i anècdotes personals per a semblar creïble”.
PARAULES CLAU
En el procés d’extracció de dades s’han contemplat paraules clau relacionades amb el fenomen de la dana i narratives de desinformació associades. ‘Conspiració’, ‘morts ocultació’, ‘engany’, ‘manipulació’, ‘mentides’, ‘Bonaire cementeri’, ‘ajuda rebutjada’ o ‘provocada preses’ són algunes d’estes ‘keywords’, que van ser “acuradament seleccionades per a capturar contingut que potencialment difonguera desinformació o expressara reaccions emocionals durant el fenomen dana”.
I quant a l’àudio de les publicacions de TikTok, aprecien igualment patrons diferents: els àudios confiables presenten tons més brillants i narracions robòtiques o monòtones, promovent la claredat i la credibilitat, la qual cosa contrasta amb els ‘fake’, que aprofiten la variació tonal, la profunditat emocional i els elements musicals per a “manipular la percepció”.
En els models de detecció, SVM+TF-IDF aconseguix la puntuació F1 més alta, sobreeixint amb dades limitades. La incorporació de funcions d’àudio en roberta-large-bne millora tant la precisió com la puntuació F1, superant la contrapart de sol text i SVM en precisió. GPT-4o Few-Shot també va tindre un bon acompliment. Estes troballes, diuen els experts, “demostren la importància d’aprofitar les funcions de text i àudio per a millorar la detecció de desinformació en plataformes multimodales com TikTok”.
“AGENTS INTEL·LIGENTS”
L’estudi finalitza al·ludint a futures investigacions per a expandir els resultats, entre altres el disseny i implementació de “agents intel·ligents” capaços de detectar i mitigar la desinformació en temps real.
Els agents, suggerixen, “podrien combinar tècniques d’aprenentatge automàtic amb sistemes basats en regles per a analitzar senyals lingüístics i emocionals, detectar contingut maliciós i prendre contramesures automatitzades”.
Així, posen com a exemple que els ‘agents intel·ligents’ podrien assenyalar possible desinformació per a la seua revisió o anàlisi addicional; proporcionar als usuaris context o informació verificada per a contrarestar afirmacions falses i interactuar amb algorismes de xarxes socials per a limitar la difusió de contingut nociu i, al mateix temps, promoure informació verificada i precisa.