OpenAI el lunes publicado Lo que llama un “plan económico” para la IA: un documento vivo que detalla las políticas que la compañía cree que puede desarrollar con el gobierno de Estados Unidos y sus aliados.
El plan, que incluye un avance de Chris Lehane, vicepresidente de asuntos globales de OpenAI, dice que Estados Unidos debe actuar para atraer miles de millones en financiación para los chips, datos, energía y talento necesarios para “ganar en la IA”.
“Hoy, mientras algunos países yuxtaponen la IA y su potencial económico”, escribió Lehan, “el gobierno de Estados Unidos puede allanar el camino para que su industria de IA continúe el liderazgo global del país en innovación y al mismo tiempo proteja la seguridad nacional”.
OpenAI tiene una y otra vez llamado El gobierno de Estados Unidos debería tomar más acción sustantiva sobre IA e infraestructura para apoyar el desarrollo de la tecnología. El gobierno federal ha dejado en gran medida la regulación de la IA en manos de los estados, una situación que OpenAI describe en el plan como intolerable.
Sólo en 2024, los legisladores del país fue presentado Casi 700 proyectos de ley relacionados con la inteligencia artificial, algunos de los cuales entran en conflicto con otros. La Ley de Gobierno Responsable de IA de Texas, por ejemplo, impone requisitos de responsabilidad onerosos Acerca de los desarrolladores de modelos de IA de código abierto.
El director ejecutivo de OpenAI, Sam Altman, también criticó las leyes federales existentes, como la Ley CHIPS, que tiene como objetivo revivir la industria de semiconductores de EE. UU. atrayendo inversiones nacionales de los principales fabricantes de chips del mundo. En una entrevista reciente con Bloomberg, Altman dicho Que la Ley CHIPS “(no ha) sido tan efectiva como todos esperábamos” y que cree que hay una “oportunidad real” para que la administración Trump “haga algo mucho mejor como seguimiento”.
“En lo que realmente estoy de acuerdo (con Trump) es en que es increíble lo difícil que se ha vuelto construir cosas en Estados Unidos”, dijo Altman en una entrevista. “Plantas de energía, centros de datos, cualquier cosa de esa naturaleza. Entiendo cómo se acumula la burocracia, pero no es útil para el país en general. No es especialmente útil cuando se piensa en lo que debe suceder para que Estados Unidos lidere la IA. Y Estados Unidos realmente necesita liderar la inteligencia artificial”.
Para alimentar los centros de datos necesarios para desarrollar y operar inteligencia artificial, el plan de OpenAI recomienda un aumento “dramático” del gasto federal en electricidad y transmisión de datos, y una construcción significativa de “nuevas fuentes de energía”, como la solar, los parques eólicos y la energía nuclear. OpenAI, junto con sus rivales de IA, ha anterior dio su apoyo a los proyectos de energía nuclear, discutiendo que son necesarios para cumplir con los requisitos de energía de las granjas de servidores de próxima generación.
Los gigantes tecnológicos Meta y AWS han tenido dificultades con sus esfuerzos nucleares, aunque por razones que no tienen nada que ver con la energía nuclear en sí.
En el plazo más cercano, el plan de OpenAI sugiere que el gobierno “desarrolle mejores prácticas” para implementar modelos que protejan contra el uso indebido, “simplifique” el compromiso de la industria de la IA con las agencias de seguridad nacionales y desarrolle controles de exportación que permitan compartir modelos con aliados mientras “limitar sus exportaciones a “países adversarios”. Además, el plan alienta al gobierno a compartir cierta información relacionada con la seguridad nacional, como informes sobre amenazas. La industria de la IA, con los proveedores, ayudará a los proveedores a obtener recursos para evaluar sus modelos de riesgo.
“El enfoque del gobierno federal respecto del modelo de seguridad fronteriza debería simplificar los requisitos”, afirma el plan. “La exportación responsable de… modelos a nuestros aliados y socios les ayudará a sostener sus propios ecosistemas de IA, incluidas sus propias comunidades de desarrolladores que innoven con IA y difundan sus beneficios, mientras construyen IA sobre tecnología estadounidense, no sobre tecnología financiada por los chinos. Partido Comunista.”
OpenAI ya cuenta con varios departamentos del gobierno de EE. UU. como socios, y si su programa gana terreno entre los responsables políticos, se espera que se agreguen más. La compañía tiene acuerdos con el Pentágono para trabajos de ciberseguridad y otros proyectos relacionados, y se ha asociado con la startup de defensa Anduril para hacerlo. Proporcionar su tecnología de inteligencia artificial a los sistemas que utiliza el ejército estadounidense para hacer frente a los ataques con aviones no tripulados.
En su plan, OpenAI pide que se redacten normas que sean “reconocidas y respetadas” por otros países y organismos internacionales en nombre del sector privado estadounidense, pero la empresa no llega a respaldar normas u órdenes vinculantes “(que el gobierno podría crear). ) una vía definida y voluntaria para que las empresas (de IA) trabajen con el gobierno para definir evaluaciones de modelos, probar modelos e intercambiar información para apoyar la protección de las empresas”, afirma el plan.
La administración Biden adoptó un enfoque similar con la orden ejecutiva sobre IA, que buscaba promulgar algunos estándares voluntarios de seguridad de IA de alto nivel. La orden ejecutiva estableció el Instituto Estadounidense de Seguridad de la Inteligencia Artificial (AISI), un organismo del gobierno federal que estudia los riesgos en los sistemas de inteligencia artificial, que se asoció con empresas como OpenAI para evaluar la seguridad del modelo. Pero Trump y su aliados Comprometerse a rescindir la orden ejecutiva de Biden, poniendo en peligro su codificación (y el AISI).
El programa de OpenAI también hace referencia a los derechos de autor en todo lo relacionado con la inteligencia artificial, un tema candente. La compañía dice que los desarrolladores de IA deberían poder utilizar “información disponible públicamente”, incluido contenido protegido por derechos de autor, para desarrollar modelos.
OpenAI, junto con otras empresas de inteligencia artificial, entrena modelos con datos públicos de toda la web. La compañía tiene acuerdos de licencia con varias plataformas y editores, y ofrece formas limitadas para que los creadores “opten por no participar” en el desarrollo de sus modelos. Pero OpenAI también tiene dicho que sería “imposible” entrenar modelos de IA sin utilizar material protegido por derechos de autor, y varios creadores han demandado a la empresa por entrenar sus creaciones sin permiso.
“(Otros) actores, incluidos los desarrolladores de otros países, no hacen ningún esfuerzo por respetar o comunicarse con los titulares de derechos de propiedad intelectual”, decía el plan. “Si Estados Unidos y países similares no abordan este desequilibrio a través de medidas sensatas que ayuden a avanzar en la IA a largo plazo, el mismo contenido se seguirá utilizando para entrenar la IA en otros lugares, pero en beneficio de otras economías”. (El gobierno debería garantizar) que la IA tenga la capacidad de aprender de información universal y disponible públicamente, al igual que los humanos, al tiempo que protege a los creadores de copias digitales no autorizadas”.
Queda por ver qué partes del plan de OpenAI, si las hay, afectan la legislación. Pero las propuestas son una señal de que OpenAI pretende seguir siendo un actor clave en la carrera por una política unificada de IA en Estados Unidos.
En la primera mitad del año pasado, OpenAI triplicó con creces su gasto en lobby, gastando 800.000 dólares en comparación con los 260.000 dólares de todo 2023. La compañía también incorporó a sus filas ejecutivas a ex líderes gubernamentales, incluida la ex funcionaria del Departamento de Defensa Sasha Baker, el jefe de la NSA, Paul Nixon. y Aaron Chankson, ex economista jefe del Departamento de Comercio durante la presidencia de Joe Biden.
mientras paga el alquiler y en expansión Su división de asuntos globales, OpenAI, ha sido más abierta sobre las leyes y regulaciones de IA que favorece, por ejemplo, apoyando proyectos de ley del Senado que establecerían un organismo federal de reglamentación de IA y otorgarían subvenciones federales para I+D en IA. se opuso a los proyectos de ley, específicamente el SB 1047 de California, argumentando que sofocaría la innovación en IA y desplazaría al talento.