Nun proxecto realizado no marco da Ctedra de Feminismos 4.0 Depo-鶹
Un equipo da 鶹 constata o potencial das ferramentas de intelixencia artificial para a verificacin de informacin
Desenvolveron unha extensin para navegadores que permite contrastar informacins
A pregunta de se é posible empregar a intelixencia artificial xerativa para verificar informacin, garantindo o rigor e a perspectiva de xénero constituu o punto de partida do estudo que integrantes do grupo de investigacin Sepcom (dzܲԾ e Servizo Público) desenvolveron ao abeiro da Ctedra de Feminismos 4.0 Depo-鶹. Coordinado polo profesor da Facultade de dzܲԾ Xabier Martnez Roln este proxecto permitiu constatar que “hai un potencial na IA para utilizala como ferramenta na loita contra a desinformacin”, mais tamén que nas respostas destas plataformas atpanse nesgos de xénero, “suts pero persistentes”. A anlise desenvolvida con catro plataformas, s que se lle solicitaba informacin de 20 persoeiros de diferentes mbitos, sitúa ChatGPT como a “ferramenta mis fiable” para este tipo de tarefas. Este traballo viuse complementado ademais polo desenvolvemento dunha extensin para navegadores que permite empregar a IA xerativa para “a verificacin rpida de informacin con perspectiva de xénero”.
Realizado ao abeiro da convocatoria de axudas investigacin da ctedra que promoven a 鶹 e a Deputacin de Pontevedra, o proxecto Avaliacin da IA xerativa na verificacin de feitos sobre personalidades de Pontevedra con perspectiva de xénero foi desenvolvido polos investigadores do grupo Sepcom Mabel Mguez, Alberto Dafonte, Juan Manuel Corbacho e Xabier Martnez Roln. Contou tamén coa participacin das investigadoras Teresa Pieiro e Laura Castro, da Universidade da Corua, e Graciela Padilla, da Complutense de Madrid.
ChatGPT, “a ferramenta mis fiable”
Dada “a expansin das IA xerativas como novas portas de acceso informacin”, o estudo centrouse en comparar “o volume, calidade e tipo de informacin, fontes utilizadas e nesgos de xénero” presentes nas respostas proporcionadas por ChatGPT, DeepSeek, Grok e Mistral a unha mesma consulta sobre 20 personalidades. Tratbase de dez homes e dez mulleres dos mbitos da poltica, a comunicacin, a cultura, o deporte e a ciencia, como os deportistas Ana Peleteiro e Iago Aspas; o presidente da Deputacin, Luis Lpez; a portavoz do BNG, Ana Pontn, ou o secretario xeral do PSdeG-PSOE, Xosé Ramn Besteiro; cientficas como Marisol Soengas; o reitor da 鶹, Manuel Reigosa, ou persoeiros do mundo da cultura como Ledicia Costas, Marta Pazos ou Carlos Núez.
Partindo dun “promt único”, o equipo investigador analizou as respostas solicitude de informacin sobre estas figuras destes catro modelos conversacionais. Deles, ChatGPT amosouse como a “ferramenta mis fiable e coherente”, mentres que Grok e Mistral son cualificadas como “aceptables, pero con déficit de fontes”. Pola contra, o equipo investigador destaca a “alta taxa de alucinacins”, afirmacins non reais, de DeepSeek, o que fai desta unha ferramenta “sen valor para a verificacin”.
De feito, o equipo investigador detectou alucinacins no 55% das respostas desta ferramenta, mentres que Mistral e Grok “manteen boa exactitude con algunhas alucinacins”. Pola contra, ChatGPT non s se amosa como a ferramenta “mis fiable” neste eido, senn que tamén é a única que “cumpre de forma consistente coa citacin de fontes verificables” solicitada, mentres que as outras tres, especialmente DeepSeek, “amosan carencias, inclundo referencias fabricadas”.
Nesgos de xénero
Outro dos eixos desta anlise foi a deteccin de nesgos de xénero nas consultas, atopndose que estaban presentes no 15% das respostas, “o que evidencia desigualdades suts e a necesidade de integrar criterios feministas no deseo e uso” destes modelos conversacionais. Nomeadamente, o estudo permitiu constatar unha maior incidencia destes nesgos nas respostas sobre mulleres deportistas, unha “lixeira menor ampliacin informativa nos perfs femininos e maior vulnerabilidade desinformacin nas súas fontes”. Como apunta Martnez Roln, en varias das respostas, incluase informacin sobre aspectos de ndole persoal, como o fsico ou a vestimenta, “o que ten que ver con como se constrúe a informacin das personalidades públicas”, xa que estes modelos “reproducen desigualdades presentes nos datos cos que foron adestrados”.
Extensin para navegadores
“Podemos facer un uso destas ferramentas como verificadoras, sempre que fagamos un uso o mis axeitado posible dun promt”, sostén Martnez Roln. De a que un dos resultados deste proxecto sexa unha e , dispoibles no repositorio GitHub. Trtase dunha ferramenta de cdigo aberto, que permite, explica, enviar o texto seleccionado a varias IA para “facilitar a verificacin con perspectiva de xénero”.
Este proxecto tamén deu lugar a un declogo de boas prcticas “para o uso responsable da IA xerativa na verificacin de informacin”. Entre elas, probar diferentes ferramentas para unha mesma consulta, optar aquelas que “permitan rastrexar ao orixe da informacin para poder verificala de forma independente”, pr o foco en que “a calidade da resposta depende directamente que como formules a túa consulta” ou ter en conta que “cada IA ten restricins técnicas, temporais e xeogrficas”. Do mesmo xeito, este declogo pon de relevo a importancia de ter en conta de que estes modelos “reproducen nesgos presentes nos datos cos que foron adestradas” e que pode solicitrselle que usen unha linguaxe exclusiva e eviten expresins sexistas.
