Estamos en medio de un ciclo de exageración de la IA. Hay extremos en ambos lados: desde resolver todos los problemas, acelerar la desaparición de la humanidad hasta una exageración masiva.
En el medio están todos los demás con distintos grados de conciencia tanto de las oportunidades como de los riesgos. Todavía hay mucha incertidumbre, en parte debido a la naturaleza de la tecnología misma: los sistemas de inteligencia artificial son complejos y a menudo no se comprenden completamente, lo que genera importantes incógnitas.
Es parte de la naturaleza humana entender cómo funcionan las cosas, incluso si es a nivel conceptual. Por ejemplo, no es necesario ser informático para comprender que buscar en la web es similar a buscar en una enorme base de datos palabras clave relevantes para coincidencias. La gran diferencia aquí es cómo la IA encuentra patrones y genera respuestas que no son fácilmente intuitivas y no pueden explicarse al usuario, ni siquiera a los expertos. De modo que la opacidad de la inteligencia artificial socava la confianza que podríamos depositar en ella.
Es por eso que estamos viendo esfuerzos para establecer formas de mejorar la confianza (como la creciente actividad en inteligencia artificial explicable). Por ejemplo, el gobierno del Reino Unido introdujo una plataforma de seguridad de IA, mientras que la ley de IA de la UE tiene como objetivo garantizar mejores condiciones para el desarrollo y uso de la tecnología.
Y esa confianza es algo que debe establecerse pronto. La inteligencia artificial llegará a ser tan frecuente que incluso si le decimos a la fuerza laboral que tenga mucho cuidado, la mayoría de ellos tendrá problemas incluso para hacer una distinción clara entre lo que es inteligencia artificial y lo que no lo es.
CEO y cofundador de Mindgard.
El ciclo de la tecnología de la IA
¿Por qué creo que la IA se incorporará cuando todavía existen grandes lagunas en nuestra comprensión? En primer lugar, la inteligencia artificial se ha utilizado con éxito durante décadas en los negocios para encontrar patrones o hacer predicciones. Fue solo en los últimos años después de que un artículo de investigación publicado en 2017 resolvió un problema que generó los LLM que vemos (y discutimos) hoy. Nadie puede predecir el futuro, pero mucha gente está invirtiendo en él: el 84% de los CIO espera aumentar su financiación de IA en un 33% en 2025; La escala de estas inversiones requiere que las empresas miren ciclos de cinco o diez años.
Es un acto de equilibrio entre establecer iniciativas diseñadas para convertirse en las primeras en IA, mientras se intenta solucionar los problemas actuales y garantizar la sostenibilidad en los años venideros. Esta es una situación en la que la mayoría de las tecnologías que hoy se consideran comunes han pasado. Pasamos de la idealización y la realización a la búsqueda de aplicaciones prácticas que resuelvan problemas reales, y luego la exageración y el entusiasmo. Al final, reconocemos las limitaciones de la tecnología y respondemos a los desafíos emergentes, y la tecnología se integra en la vida cotidiana de una manera que va más allá de los ciclos publicitarios.
Lo que diferencia la inteligencia artificial de las tecnologías anteriores es su naturaleza aleatoria y opaca, que es muy diferente del software tradicional. Esto tiene implicaciones importantes para todos los aspectos del despliegue de la IA. Por ejemplo, en seguridad, si bien muchas prácticas actuales son aplicables a la seguridad de la IA, sirven más como analogías que como soluciones directas.
El doctor te verá ahora.
Piense en ello como ir al médico. Cuando llegas y dices: “No me siento bien”, el médico no dice: “Dame tu ADN y te diré que todo está mal”. No funciona de esa manera, porque aparte de las cuestiones de costos, el ADN es un sistema increíblemente complejo que todavía estamos tratando de comprender, solo puede revelar ciertas tendencias y no captura factores ambientales. Los gemelos, por ejemplo, tienen el mismo ADN pero pueden desarrollar enfermedades diferentes.
En cambio, los médicos analizan sus antecedentes familiares, realizan algunas pruebas, hacen preguntas y prueban diferentes enfoques para resolver las cosas. Los médicos analizan el problema (su enfermedad) a través de una lente sociotécnica. Las investigaciones sobre la historia familiar, su estilo de vida, actividades recientes y el elemento social: ¿Qué está pasando en su vida que podría estar contribuyendo o causando el problema? El aspecto técnico es la solución -qué fármaco tenemos para tratarte- pero el elemento social influye mucho.
Un enfoque sociotécnico verdaderamente integrado
A medida que pasa el tiempo, resulta cada vez más claro que debemos aplicar la misma lógica a la seguridad de la IA. La ciberseguridad se reconoce como un campo sociotécnico (sin embargo, la mayoría de los problemas de seguridad provienen de las personas). Por el momento, parece haber diferentes marcos entre lo social y lo técnico. Hablamos de ingeniería social, amenazas internas y educación de los empleados sobre los riesgos de abrir archivos adjuntos desconocidos. Por otra parte, implementamos medidas técnicas para brindar seguridad o reducir el impacto de los ataques.
Donde la seguridad de la IA diferirá es en la necesidad de integrar lo social y lo técnico dentro de las mismas técnicas, en lugar de verlos como separados. Ya estamos viendo ejemplos en los que nuestras expectativas chocan con lo que ofrecen los modelos de IA: un ejemplo reciente fue Google Gemini diciéndole a alguien que “por favor, muera”.
Esto resalta varios puntos a considerar. Primero, la naturaleza opaca de la IA: los LLM no piensan como humanos (aunque puede ser bueno para engañarnos y hacernos creer lo contrario), por lo que nos resulta difícil entender cómo podría generar tal respuesta basada en una conversación inocente sobre el envejecimiento. .
En segundo lugar, si LLM puede producir tal respuesta a través de lo que parece ser una conversación inocente, ¿qué puede suceder cuando hay un intento deliberado de generar respuestas maliciosas?
Finalmente, el evento Gemini destaca la importancia de observar el contexto en el que se utilizan las herramientas de IA y cómo se introducen en la organización. Tiene una dimensión social central, no dentro del sistema en sí, sino en la forma en que la gente interactúa con él.
Complejidad adicional con IA extensa
¿En qué se diferencia de cualquier otra herramienta o solución tecnológica? Hemos notado la tendencia de la gente a antropomorfizar la IA en un grado que no lo han hecho con ninguna tecnología actual. El usuario medio mantiene lo que cree que son conversaciones con una IA. No escriben código para crear una respuesta o acción, sino que hablan como si usaran motores de búsqueda o incluso otras personas para encontrar información o hacer algo.
El mayor error que podemos cometer es suponer que a medida que los modelos de IA se vuelven comunes, el nivel de atención que se presta a sus riesgos puede disminuir. Incluso con advertencias claras, la mayoría de los usuarios no distinguirán lo que es y lo que no es IA. Nuestra atención debería centrarse en lo que informa nuestras herramientas de IA, los modelos y superposiciones de los que están hechas y dónde están los puntos débiles.
El desafío es importante, pero también lo es la oportunidad. Con los enfoques correctos podemos garantizar que la inteligencia artificial mejore nuestro mundo sin socavar la confianza que lo sustenta. El camino hacia la seguridad de la inteligencia artificial no consiste solo en proteger los sistemas, sino también en dar forma al futuro.
Hemos presentado el mejor editor de video con IA.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si estás interesado en donar, descubre más aquí: