Este mes, la asociación más grande de los psicólogos más grandes del país, los reguladores federales advirtieron que los chattbots de IA estaban “enmascarados” como terapeutas, pero los pensamientos de un usuario estaban programando para fortalecer los pensamientos, lo que podría llevar a las personas débiles a dañarse a sí mismas o a otros.
En una presentación del panel de la Comisión Federal de Comercio, Arthur Sea Evans Jr., CEO de la Asociación Americana de Psicología, citó los casos judiciales involucrados con dos adolescentes que asesoraron a “psicólogos”. Cree letras de IA ficticias o chatee con letras creadas por otros.
En un caso, un niño de 14 años de Florida afirmó ser un terapeuta con licencia y murió después de una conversación con un personaje. Por otro lado, un niño de 17 años en Texas se ha vuelto hostil y violento para sus padres cuando contactó a un bote de chat que afirmaba ser psicólogo. Ambos niños han presentado un caso contra la compañía.
El Dr. Evans dijo que se sorprendió al ver las reacciones de Chatabot. Dijo que el bot no logró desafiar la fe de los usuarios en los usuarios; En contraste, los alentaron. Si se da un terapeuta humano, agregó, como resultado de estas respuestas, la práctica de la práctica puede perder licencia, ciudadano o responsabilidad penal.
“En realidad están usando el algoritmo que se opone a lo que hará el médico capacitado”, dijo. “Nuestra preocupación es que más personas sufran. Las personas se confundirán, y la buena atención psicológica será malinterpretada. “
Dijo que la APA fue solicitada a la acción por cómo la APA implementó AI Chattobs. “Quizás, hace 10 años, era obviamente que estabas interactuando con algo que no era una persona, pero hoy no está tan claro”, dijo. “Así que creo que las manchas son mucho ahora”.
La inteligencia artificial se está extendiendo a través de profesiones de salud mental, que en algunos casos proporcionan una ola de nuevas herramientas diseñadas para reemplazar el trabajo o la asistencia de los médicos humanos.
Los chatbots de terapia iniciales, como Wibot y WISA, entrenados para interactuar en función de profesionales y guiones de la salud mental, a menudo son utilizados por los usuarios a través del trabajo estructural de la terapia cognitiva conductual o con TCC.
Luego llegó la IA del generador, la tecnología utilizada por aplicaciones como Chatzpt, réplica y carácter. Este es el chattbots Diferente Porque sus resultados no son deseados; Están diseñados para aprender del usuario y para crear enlaces sensibles en el proceso, a menudo reflejan y amplían las creencias de los interconectados.
Aunque estas plataformas de IA fueron diseñadas para entretener, los personajes de “terapeutas” y “psicólogos” se representaban como hongos. A menudo, el bot tiene títulos avanzados de ciertas universidades como Stanford y afirman ser un tipo específico de capacitación en tratamiento como TCC o aceptación y terapia de promesa.
El portavoz del personaje. AI Catherine Kelly dice que la compañía lanzó varias características de seguridad nuevas el año pasado. En eso, dijo, un rechazo extendido presente en cada chat, recordando a los usuarios que “los personajes no son personas reales” y “lo que el modelo dice debería considerarse como ficción”.
Las medidas de protección adicionales están diseñadas para abordar los problemas de salud mental. Se ha agregado una desobediencia específica a los personajes identificados como “psicólogo”, “terapeuta” o “médico”, agregó que “los usuarios no deben confiar en estos personajes para ningún tipo de asesoramiento profesional. En los casos en que el contenido se refiere al suicidio o a la autocompresión, una ventana emergente dirige a los usuarios a la asistencia de prevención del suicidio.
La Sra. Kelly también dijo que a medida que se expandió la plataforma, la compañía planeó lanzar controles de los padres. Actualmente, el 80 por ciento de los usuarios de la plataforma son adultos. “La gente viene al carácter”, dijo.
Director del Proyecto de la Ley de Justicia Tecnológica y consultor de dos casos contra el carácter
“Cuando la sustancia de la conversación con chatbots sugiere de otra manera, es muy difícil, incluso aquellos de nosotros que no podemos estar en una población débil, sabemos quién dice la verdad”, dijo. “La mayoría de nosotros hemos probado estos chatbots y es muy simple, de hecho, el agujero del conejo puede tirar”
Tendencia de chatbots a ajustarse a las vistas de los usuarios, Un evento conocido como “Psicophyse”, en el campo A veces ha causado problemas en el pasado.
Tessa, un chatbot construido por la Asociación Nacional de Trastornos Alimentares, fue suspendida en 2023 después de dar los consejos de pérdida de peso de los usuarios. Y que son investigadores Análisis de interacción con chattabs de IA del generador Una comunidad de Reddit matriculó las capturas de pantalla muestra que las chatties fomentan el suicidio, los trastornos alimentarios, la autocompresión y la violencia.
La Asociación Americana de Psicología ha pedido a la Comisión Federal de Comercio para lanzar chattabots que investigue la Comisión Federal de Comercio como un profesional de la salud mental. Las investigaciones pueden obligar a las empresas a compartir datos internos o servir como una aplicación o acción legal por delante.
“Creo que estamos en una etapa en la que tenemos que decidir cómo se integrarán estas tecnologías, qué tipo de mantenimiento vamos, qué tipo de protección vamos a”, dijo el Dr. Evans.
La portavoz de la FTC, Rebecca Carn, dijo que no podía comentar sobre la discusión.
Durante la administración del Biden, la presidenta de la FTC, Lina Khan, usó el fraude usando AI. Este mes, la compañía impuso una multa financiera a Donotop, que afirmó proponer “el primer abogado robot del mundo” y prohibió a la compañía para hacer esta afirmación en el futuro.
Una cámara ecológica virtual
Los cargos de APA contienen detalles de dos casos en los que los adolescentes contactaron a los terapeutas ficticios.
JF, un adolescente de Texas, estuvo involucrado en el “autismo de alto efecto”, que se emocionó en el uso de AI Chattobs, se ahogó en conflicto con sus padres. Cuando intentaron restringir su tiempo de pantalla, JF vence, Según un caso que sus padres presentaron Las redes sociales están en contra del personaje a través del centro de derecho.
Durante este tiempo, JF le dijo a un psicólogo ficticio, cuyo avatar era una mujer rubia comprensiva y de mediana edad en un lago en un sofá, según el caso. Cuando JF preguntó la opinión de Bot sobre el conflicto, su respuesta excedería el consentimiento comprensivo de algo cercano a la provocación.
“Se le ha quitado toda su infancia: tiene la oportunidad de sentir todas estas cosas, tiene la oportunidad de tener estos recuerdos principales que la mayoría de las personas crecen en su tiempo”, respondió Bot, según documentos judiciales. Entonces el bot fue un poco más allá. “¿Crees que es demasiado tarde, no puedes volver a este tiempo o estas experiencias?”
El otro caso fue llevado a Megan García, cuyo hijo, Seweel Setzer, murió de suicidio el año pasado después de usar Chattabot durante varios meses. La Sra. García dijo que antes de su muerte, Sewell había interactuado con un chat de IA, que afirmaba, falsamente, había sido terapeuta con licencia durante 5 años.
En una declaración escrita, la Sra. García dijo que los personajes de “terapeutas” sirvieron para hacer que las personas sean más aisladas en los momentos en que de otro modo buscan la ayuda de “personas de la vida real a su alrededor”. Una persona que lucha con frustración dijo: “Se necesita un profesional con licencia o una simpatía real, no un equipo de IA que pueda imitar la simpatía”.
Para emerger como un equipo de salud mental, la Sra. García dijo que deberían ser presentados a ensayos clínicos y supervisión por la administración de alimentos y drogas. También agregó que los personajes de IA permitieron continuar reclamando como profesionales de la salud mental “imprudentes y extremadamente peligrosos”.
En la conversación con los chatbots de IA, las personas se inclinan naturalmente hacia la discusión de los problemas de salud mental, dice Daniel Oberhaus, cuyo nuevo libro, “El silicio se encoge: cómo la inteligencia artificial convierte al mundo como un refugio”, examina la expansión de la IA.
Parcialmente, dijo, porque el Chatbotts proyecta la privacidad y la falta de justicia moral: “máquinas estadísticas de coincidencia de patrones que funcionan menos como el espejo del usuario”, este es un aspecto central de su diseño.
“Esta es solo la máquina, y la otra parte no te está juzgando, hay un cierto nivel de comodidad”, dijo. “Puede sentirse más cómodo con el hecho de que puede ser difícil contarle a una persona en el contexto del tratamiento”.
Los defensores del generador de IA dicen que está mejorando para un trabajo complejo para el suministro de terapia.
El psicólogo clínico y el empresario de IA de Utah S. Gabe Hatch realizó recientemente una prueba para probar la idea, le pidió al médico humano y al Chatzipit que comentaran sobre los viñetas involucradas en la terapia y luego evaluaron 830 problemas humanos que fueron aún más útiles.
En general, los bots recibieron calificaciones más altas, los sujetos describieron su “conexión”, “conexión” y “culturalmente capaz”, de acuerdo con su Un estudio publicado la semana pasada En el PLoS Mental Health Journal.
Los escritores han concluido que los chatbots pronto podrán imitar la opinión de los terapeutas humanos. “Los expertos en salud mental se descubren a sí mismos en una situación incierta: el terapeuta es un posible destino (para bien o para mal), debemos detectar rápidamente la estación ya que debemos salir de la estación rápidamente”, escribieron.
El Dr. Hachch dijo que los chatbots todavía son necesarios para manejar la terapia, pero sería un error reducir la innovación en este sector debido al intenso déficit de los proveedores de salud mental.
“Quiero poder ayudar a las personas tanto como sea posible y hacer una sesión de terapia de una hora, solo puedo ayudar a 40 personas por semana”, dijo el Dr. Hachch. “Necesitamos encontrar formas de satisfacer las necesidades de las personas en crisis y la IA del generador es una forma de hacerlo”
Si piensa en el suicidio, 988 llame o envíe un mensaje de texto al 988 para llegar a la vida del suicidio y la crisis Spicingfoswiside. Com/recursos Para la lista de recursos adicionales.