Estudio de la BYU examina por qué las personas son reacias a utilizar la inteligencia artificial

La inteligencia artificial y el escepticismo social
La inteligencia artificial (IA) avanza a pasos agigantados y promete revolucionar la forma en que vivimos y trabajamos. Sin embargo, a pesar de sus impresionantes capacidades y rápido desarrollo, muchas personas aún se muestran reacias a utilizarla o integrarla en sus vidas diarias. Un estudio reciente realizado por la Universidad Brigham Young (BYU) analiza a fondo esta tendencia y busca entender los motivos detrás de la cautela generalizada hacia la IA.
¿Qué descubrió el estudio de la BYU?
El equipo de investigación de la BYU entrevistó y encuestó a participantes de diferentes edades, profesiones y niveles de familiaridad tecnológica para entender las causas de esta reticencia. Los resultados muestran una mezcla de inquietudes emocionales, éticas y prácticas. La mayoría de los encuestados expresó sentimientos de desconfianza hacia la IA, miedo a los posibles errores o pérdidas laborales y dudas sobre la transparencia de los algoritmos.
Además, una gran parte de los participantes manifestó sentir que no comprende del todo cómo funciona la inteligencia artificial o para qué fines se utiliza realmente, lo cual alimenta la incertidumbre.
Factores que alimentan la cautela ante la IA
- Falta de comprensión tecnológica: Muchas personas creen que la tecnología detrás de la IA es demasiado compleja y sienten que no tienen control sobre cómo se toman las decisiones.
- Preocupaciones éticas y laborales: El temor a que la automatización y la IA eliminen puestos de trabajo tradicionales es una de las principales inquietudes.
- Confianza y transparencia: La percepción de que los sistemas de IA son una “caja negra” de la cual no se conocen ni las reglas ni los resultados dificulta la aceptación social.
- Influencias culturales y mediáticas: La representación negativa o dramática de la IA en el cine, las noticias y la literatura influye en las opiniones y miedos colectivos.
Oportunidades y retos en la adopción de la IA
Más allá de los temores, el estudio destaca que quienes han interactuado regularmente con herramientas de IA tienden a mostrar menos resistencia y mayor apertura. La clave parece estar en la promoción de programas de información y educación que permitan a más personas conocer los beneficios y limitaciones de esta tecnología.
Por otro lado, los desarrolladores y empresas que implementan IA tienen la responsabilidad de garantizar transparencia, proteger la privacidad y fomentar procesos claramente explicables para ganar la confianza del usuario.
La brecha generacional y el papel de la educación
El estudio de la BYU también encontró diferencias importantes entre generaciones. Mientras que los jóvenes y aquellas personas con mayor exposición digital sienten menos miedo y más entusiasmo, las generaciones mayores tienden a ser más escépticas.
Esta brecha pone de relieve la importancia de incluir contenidos sobre inteligencia artificial en la educación formal y de ofrecer espacios para el diálogo abierto donde se aclaren mitos y se aborden las inquietudes reales.
¿Cómo podemos construir confianza en la inteligencia artificial?
Superar la reticencia hacia la inteligencia artificial requiere unir esfuerzos entre desarrolladores, educadores y usuarios. Promover la transparencia, la formación continua y el pensamiento crítico son pasos fundamentales para que la sociedad pueda usar e integrar estas herramientas de forma segura y ética.
La pregunta que surge es: ¿estamos dispuestos a informarnos, experimentar y construir entre todos una relación de confianza con la inteligencia artificial, o preferimos mantenernos al margen ante el temor de lo desconocido?
Fuente: BYU study examines why people are reluctant to use artificial intelligence - KSL News