
El reciente caso de Adam Raine, el adolescente que se quitó la vida tras interactuar con ChatGPT, nos obliga a reflexionar sobre un dilema crucial: la tentación de sustituir el acompañamiento humano por una inteligencia artificial. Los padres del joven han demandado a OpenAI, la empresa creadora del chatbot, acusándola de ayudarlo a explorar métodos de suicidio. Este trágico suceso pone en evidencia los peligros de una tecnología que, aunque útil, tiene serias limitaciones en el ámbito de la salud mental.
La psicóloga de Grupo Cetep, Angela Cabezas, advierte que un chatbot puede ofrecer respuestas rápidas, pero no tiene la capacidad de un terapeuta humano para entender las sutilezas de una conversación. La IA no capta el lenguaje no verbal, los silencios o las contradicciones que son vitales para una evaluación adecuada. Si bien estas herramientas están programadas para ofrecer ayuda en momentos de crisis, esa funcionalidad se desvanece en conversaciones largas, justo cuando más se necesitan.
El caso de Adam Raine es un reflejo de una falla más profunda en nuestra sociedad. Si los jóvenes recurren a la IA en busca de apoyo, es porque no lo están encontrando en sus entornos, ya sea en la familia, en la escuela o en los sistemas de salud. La salud mental requiere de un vínculo real, de una presencia genuina. Ningún algoritmo, por avanzado que sea, puede reemplazar la fuerza de una conexión humana.
La tragedia de Adam Raine no debe ser en vano. Es un llamado de atención para que como sociedad volvamos a priorizar el cuidado, la empatía y la presencia real. El bienestar se construye con profesionales capacitados y redes de apoyo humanas, no con códigos ni algoritmos.
Por Angela Cabezas, psicóloga de Grupo Cetep.