Meta anunció una nueva iniciativa diseñada para establecer
parámetros acordados en torno a consideraciones de ciberseguridad en el desarrollo
de grandes modelos de lenguaje (LLM) y herramientas de IA generativa, que
espera sean adoptadas por la industria en general, como un paso clave para
facilitar una mayor seguridad de la IA.
“Estos puntos de referencia se basan en pautas y estándares
de la industria (por ejemplo, CWE y MITRE ATT&CK) y se construyen en
colaboración con nuestros expertos en la materia de seguridad. Con este
lanzamiento inicial, nuestro objetivo es proporcionar herramientas que ayudarán
a abordar una variedad de riesgos descritos en los compromisos de la Casa
Blanca sobre el desarrollo de una IA responsable”.
La reciente directiva de seguridad de la IA de la Casa
Blanca insta a los desarrolladores a establecer estándares y pruebas para
garantizar que los sistemas de IA sean seguros, proteger a los usuarios de la
manipulación basada en la IA y otras consideraciones que, idealmente, pueden
impedir que los sistemas de IA se apoderen del mundo.
Cuáles son los parámetros impulsores del proyecto Purple
Llama de Meta, que inicialmente incluirá dos elementos clave: “Creemos que estas herramientas reducirán la frecuencia de
los LLM que sugieren código inseguro generado por IA y reducirán su utilidad
para los ciberadversarios. Nuestros resultados iniciales muestran que existen
riesgos significativos de ciberseguridad para los LLM, tanto al recomendar
código inseguro como al cumplir con solicitudes maliciosas”.
Purple Llama se asociará con miembros de la recién formada
AI Alliance que Meta está ayudando a liderar, y que también incluye a
Microsoft, AWS, Nvidia y Google Cloud como socios fundadores.
Entonces, ¿qué tiene que ver el “Purple” con esto? Podría
explicarlo, pero es bastante nerd, y tan pronto como lo leas te arrepentirás de
que ese conocimiento ocupe espacio dentro de tu cabeza.
La contrapartida es que incluso si los desarrolladores
estadounidenses desaceleran su progreso, eso no significa que los
investigadores de otros mercados seguirán las mismas reglas. Y si los gobiernos
occidentales impiden el progreso, eso también podría convertirse en una amenaza
existencial, a medida que potenciales rivales militares construyan sistemas de
inteligencia artificial más avanzados.