Meta Platforms Inc. publicó esta semana un estudio con investigadores de la Universidad de Stanford que trataba de entender mejor lo que piensa la gente de los chatbots de inteligencia artificial, como ChatGPT, o el tipo de tecnología con la que se podría interactuar en lugar de un agente de atención al cliente.
El estudio, realizado a finales del año pasado, era más que una simple encuesta. Los investigadores convencieron a más de 1.500 participantes de cuatro países (Brasil, Alemania, España y EE.UU.) para que pasaran un fin de semana debatiendo sobre el papel de los chatbots de IA en la sociedad, por ejemplo, «¿cómo de humanos deberían ser los chatbots de IA?». A continuación, los investigadores midieron si los sentimientos de los participantes hacia los chatbots cambiaban «tras las deliberaciones».
Como era de esperar, en general la gente se sentía mejor y más optimista respecto a los chatbots después de pasar el fin de semana hablando sobre ellos. El porcentaje de participantes que pensaban que los chatbots «aumentaban la eficiencia» y ahorraban a las empresas «mucho tiempo y recursos» aumentó en los cuatro países. También subió el porcentaje de personas que pensaban que los chatbots harían que la gente se sintiera «menos sola». (Aunque seguía siendo menos del 50% de los encuestados en tres de los cuatro países).
La gente también era más propensa a creer que los chatbots de IA «replicarían los sesgos que existen en los datos con los que fueron entrenados» después de pasar el fin de semana deliberando, y eran más propensos a creer que los chatbots «plantearían preocupaciones sobre la privacidad y la seguridad de los datos.»
En resumen: pasar un fin de semana hablando sobre chatbots dio a la gente una mejor idea de los beneficios y, lo que es igual de importante, una mayor conciencia de los daños potenciales.
A menudo, cuanto más se aprende sobre algo, menos espeluznante resulta. «No hay más oscuridad que la ignorancia», dijo Shakespeare. Este estudio, aunque pequeño, sugiere que aunque en general hay mucha incertidumbre en torno a los avances de la IA, algunas personas están dispuestas a abrirse a estas nuevas tecnologías después de dedicar tiempo a pensar en ellas.
La realidad, sin embargo, es que la mayoría de la gente no tendrá tiempo ni interés en asistir a un curso intensivo de un fin de semana sobre los riesgos y las promesas de la IA. En su lugar, llegarán a sus propias conclusiones sobre los chatbots (o los coches autoconducidos o las gafas inteligentes o los contenidos generados por IA) a través de sus propias experiencias vividas. Una cosa es deliberar sobre estas cuestiones durante un estudio y otra muy distinta es que la gente experimente estas tecnologías en su vida cotidiana. Las promesas de la IA casi siempre suenan bien sobre el papel.
La palabra «transparencia» aparece varias veces en el informe de Meta, señal de que a los usuarios les parece bien tratar con chatbots siempre que sepan que están tratando con chatbots. A nadie le gustan las sorpresas cuando se trata de algo tan íntimo y personal. Etiquetar o presentar correctamente un chatbot a los usuarios es el tipo de distinción de producto sencilla pero importante que podría marcar la diferencia a la hora de cambiar la perspectiva de una persona. Es una de las razones por las que Meta ya está trabajando para etiquetar más publicaciones generadas por IA en los feeds de los usuarios.
Históricamente, las empresas tecnológicas no han sido buenas cuando se trata de cosas como la transparencia. La IA ofrece la oportunidad de aprender de los errores del pasado. Lo que esto significa, más que cualquier otra cosa, es que dependerá de empresas tecnológicas como Meta cumplir las promesas de la IA creando buenos productos. De lo contrario, las deliberaciones no importarán.