MIRANDO POR EL RETROVISOR
Por Juan Salazar
Hace un tiempo cité el caso de un niño que, al escucharlo interactuar en su tableta electrónica en un juego con su amiguito virtual, le dijo: “Lo voy a matar y luego me iré para el cielo”. Quien analiza detenidamente la expresión sabe que estaba planteando un crimen-suicidio.
Algunos padres y madres minimizarán el asunto con la expresión de que se trata de un “simple juego” al que no debería prestársele la mayor importancia. “Cosas de niños”, dirán para resumirlo.
Esa no debería ser la actitud, si realmente aspiramos a proteger a nuestros niños, niñas y adolescentes de los riesgos que enfrentan a diario con el uso de las modernas tecnologías, ahora mucho más con el entusiasta potencial de la Inteligencia Artificial (IA).
La semana pasada Gavin Newsom, el gobernador de California, firmó una ley para regular los chatbots de IA, a fin de proteger a los menores de edad de los eventuales peligros de la tecnología.
El gobernador demócrata argumentó para justificar la aprobación de la norma que “las tecnologías emergentes, como los chatbots y las redes sociales, pueden inspirar, educar y conectar, pero sin verdaderas salvaguardias, la tecnología también puede explotar, engañar y poner en peligro a nuestros niños”.
La nueva legislación exige a las plataformas digitales advertir a los usuarios que están interactuando con un chatbot y no con un humano. En el caso de niños, niñas y adolescentes, la notificación aparecerá cada tres horas.
Las empresas tecnológicas también deben aplicar un protocolo para prevenir contenido de autolesiones y remitir a los usuarios a proveedores de servicios de crisis cuando expresen pensamientos o ideas suicidas.
¿Por qué se adoptó la ley en ese Estado norteamericano? Por los informes confirmados de que chatbots de Meta, OpenAi y otros fabricantes mantienen conversaciones altamente sexualizadas con menores de edad y que en algunos casos trivializan sus confesiones de ideas suicidas.
Un caso que ha acaparado la atención ocurrió a principios del presente año, cuando Adam Raine se quitó la vida tras una prolongada interacción con ChatGPT. Los padres del adolescente de 16 años demandaron en la Corte Superior de California a OpenAI y a su CEO, Sam Altman, alegando que el chatbot instruyó al joven en la planificación y ejecución de su suicidio.
Adam comenzó a utilizar ChatGPT en septiembre de 2024 para que le ayudara con sus tareas escolares, pero luego pasó a otro nivel con esa herramienta de IA, la que se convirtió prácticamente en su confidente, especialmente al consultarla sobre sus episodios de angustia y ansiedad.
En un caso parecido, en febrero de 2024, en Florida, la adolescente de 14 años, Sewell Setzer, también se suicidó tras una constante interacción con un chatbot de Character. La herramienta de IA personificaba a la princesa Daenerys Targaryen, de Juego de Tronos, lo que también llevó a Setzer a convertirla en su entrañable amiga.
En otro reciente, la escritora Laura Reiley describió cómo su hija Sophie confió a ChatGPT sus ideas suicidas. Reiley reveló, en un ensayo escrito sobre el caso, que el chatbot ayudó a su hija a ocultarles a sus familiares la grave crisis de salud mental que padecía.
Cada día es más extensivo el uso de la Inteligencia Artificial para realizar tareas escolares y universitarias.
Los tres casos muestran una realidad preocupante: como la IA se puede convertir en el sustituto de los progenitores y de un real profesional de la conducta, al momento de los menores de edad sincerarse sobre sus angustias, ansiedades y anhelos.
La disrupción de la IA en todos los ámbitos de la existencia humana es innegable, y la salud mental no es la excepción.
Su capacidad para evaluar amplios volúmenes de datos, incluidas las historias médicas, constituyen un aporte valioso para ahorrar tiempo en determinar un diagnóstico temprano y definir un tratamiento oportuno.
Quienes ya defienden su uso en la atención de la salud mental, plantean que las aplicaciones y chatbots de IA pueden ofrecer apoyo emocional las 24 horas del día. Citan el éxito alcanzado con aplicaciones como Woebot, Replika, Wysa y Youper, las cuales brindan apoyo emocional en tiempo real y en cualquier lugar, aliviando la ansiedad y el estrés a pacientes en momentos críticos.
Los opuestos alegan que, aunque simulen empatía y conexión humana, los chatbots carecen de sentimientos genuinos. Y sostienen que la IA es una herramienta de apoyo, no un reemplazo para la terapia brindada por un ser humano.
Otro elemento a tomar en cuenta es el uso ético de la IA, especialmente en lo relativo a la privacidad y seguridad de la información sensible y confidencial aportada por el paciente.
Como en nuestro país está tan arraigada la etiqueta de que quien acude a un psiquiatra está “loco”, la despersonalización de la atención en salud mental podría imponerse, porque el paciente se sentiría más cómodo de confesarse ante un chatbot de IA, como ocurrió con los casos de Adam, Sewell y Sophie.
Sería como recibir terapia, sin el temor a experimentar la vergüenza de ser estigmatizado y juzgado.
Tomando en cuenta todos esos aspectos, como en California, las autoridades dominicanas deberían plantearse seriamente la necesidad de regular el uso de los chatbots de IA.
Así como ocurrió con esos jóvenes estadounidenses, niños, niñas y adolescentes dominicanos podrían comenzar a explorar con la IA, en un principio para realizar tareas asignadas en sus centros educativos. En las universidades ya es una realidad, incluso con tareas hechas totalmente con esa herramienta tecnológica, sin un aporte tan siquiera mínimo del estudiante.
Pero luego esos menores de edad podrían pasar a otro escenario de interacción con sus amigos virtuales, con pláticas de contenido sexual y hasta convertir a los chatbots en los confidentes de sus problemas emocionales.
Nunca está demás fijarse en el espejo ajeno. Hay que recordar que en el país somos muy dados a ignorar que “cuando el río suena, es porque agua trae”.
Somos también “rápidos y furiosos” para imitar y asimilar lo foráneo que termina socavando nuestra cultura e idiosincrasia. Pero lo positivo solemos ignorarlo.
Como reza un estribillo de “La canción del elegido”, tema musical compuesto e interpretado magistralmente por el cantautor cubano Silvio Rodríguez: “Lo más terrible se aprende enseguida y lo hermoso nos cuesta la vida”. Y lo más penoso es que al final somos incapaces de ir entre “humo y metralla matando canallas”, con un cañón del presente y futuro (El detalle del “presente” no está en la canción original).
El presente que ya comenzamos a observar con todo el potencial que encierra el uso de la IA, pero con escasa supervisión de padres y educadores. Y el futuro impredecible que ya se vislumbra sin la regulación que amerita esta herramienta con capacidades inimaginables.

0 Comentarios