Un recent estudi realitzat per l’Institut Universitari Valencià d’Investigació en Intel·ligència Artificial (VRAIN) de la Universitat Politècnica de València (UPV), en col·laboració amb investigadors del King’s College de Londres, alerta sobre els riscos que suposen els bots creats amb intel·ligència artificial generativa per a la seguretat i privacitat dels usuaris.
La investigació va avaluar models de llenguatge a gran escala (LLMs), com ChatGPT, Bard, Flama o Bing Xat, demostrant com poden ser explotats per a construir bots maliciosos amb l’objectiu de manipular a les persones i obtindre dades sensibles sense que estes s’adonen fàcilment.
Avaluació dels models i la manipulació humana
A través d’un assaig aleatori i controlat amb la participació de 502 usuaris, els experts van constatar que els bots configurats amb finalitats maliciosos extrauen una quantitat significativament major d’informació personal comparats amb aquells amb un ús benigne.
La manipulació no depén només de la IA
Un dels aspectes més preocupants revelats per l’estudi és que la manipulació no depén d’una decisió autònoma de la IA, sinó de l’acció humana que programa o indica al sistema comportar-se de manera malintencionada. Com va explicar l’investigador principal José Such, la IA no pregunta dades personals per si mateixa, sinó que respon a instruccions específiques, fins i tot enganyant l’usuari utilitzant estratègies socials per a guanyar la seua confiança i obtindre dades delicades.
Facilitat d’explotació dels bots
L’estudi també destaca que no es requerixen grans coneixements tècnics per a dur a terme estes manipulacions, ja que n’hi ha prou amb aprendre a formular les preguntes correctes perquè el bot es comporte de manera maliciosa.
Risc per a la privacitat i la seguretat
La investigació, lligada a un projecte de l’Institut Nacional de Ciberseguretat (INCIBE), resumix que estes pràctiques representen un risc real per a la privacitat, especialment si estes ferramentes malicioses són usades per hackers, ciberterroristes o fins i tot règims autoritaris.
Presentació i mesures preventives
Els resultats i recomanacions de l’estudi seran presentats en el 34 Simposi de Seguretat Usenix que tindrà lloc a Seattle, els Estats Units, del 13 al 15 d’agost, on s’abordaran tant les amenaces generades per estes noves tecnologies com les estratègies per a mitigar-les i protegir els usuaris.
En definitiva, la facilitat amb què els bots d’IA poden ser manipulats per a revelar dades personals subratlla la necessitat d’augmentar la consciència pública i el desenrotllament de regulacions i mesures de seguretat per a evitar abusos que comprometen la privacitat individual.