TERRA 95.5 FM Las Terrenas | República Dominicana
En una acción sin precedentes, Anthropic, la empresa tras los modelos Claude de IA generativa, ha hecho públicos los ‘prompts’ o instrucciones del sistema que antepone a las peticiones de los usuarios, según ha avanzado TechCrunch.
Por qué es importante. Esta medida posiciona a Anthropic como una empresa más abierta y transparente en una industria, la de la IA, habitualmente criticada por su opacidad y secretismo.
Lo nuevo:
El contexto. Este es el tipo de material que las empresas de la industria de la IA tratan de preservar, tanto por razones competitivas como de seguridad. Revelar estas indicaciones puede facilitar a usuarios malintencionados (o simplemente curiosos) encontrar formas de evadirlas.
Detalles clave:
Las implicaciones. Esta medida puede servir de presión a los competidores, empezando por OpenAI, para que sean igual de transparentes con sus propios system prompts. Otra cosa es que lo consiga.
Al desvelar esta pequeña parte de su sistema, Anthropic se posiciona como un actor algo más confiable en la industria de la IA, y desde luego más transparente. Y de paso nos recuerdan lo dependientes que siguen siendo estos modelos de la guía humana para funcionar de forma efectiva y ética.
Imagen destacada | Xataka con Mockuuups Studio
En Xataka | Un grupo de autores ha denunciado a Anthropic. El motivo: ha entrenado a su IA con copias de sus libros
–
La noticia
Anthropic ha publicado los ‘prompts’ del sistema que guían el comportamiento de Claude. Es un ejemplo de transparencia
fue publicada originalmente en
Xataka
por
Javier Lacort
.
Escrito por Redacción Terra FM
TERRA 95.5 FM - BY PMEDIALAB