OpenAI agrega herramientas de codigo abierto para ayudar a desarrolladores a construir para seguridad de adolescentes
OpenAI anuncio el martes que esta lanzando un conjunto de promociones que los desarrolladores pueden usar para hacer sus aplicaciones mas seguras para los adolescentes. El laboratorio de IA dijo que el conjunto de politicas de seguridad para adolescentes puede usarse con su modelo de seguridad de codigo abierto conocido como gpt-oss-safeguard.
En lugar de trabajar desde cero para descubrir como hacer la IA mas segura para los adolescentes, los desarrolladores pueden usar estos mensajes para fortificar lo que construyen. Abordan temas como violencia grafica y contenido sexual, ideales y comportamientos corporales dañinos, actividades y desafios peligrosos, roleplay romantico o violento, y bienes y servicios restringidos por edad.
Estas politicas de seguridad estan disenadas como-prompts, lo que las hace facilmente compatibles con otros modelos ademas de gpt-oss-safeguard, aunque probablemente son mas efectivas dentro del propio ecosistema de OpenAI.
Para escribir estos mensajes, OpenAI dijo que trabajo con supervisores de seguridad de IA, Common Sense Media y everyone.ai.
OpenAI no tiene el historial mas limpio sin embargo. La empresa esta enfrentando varias demandas presentadas por las familias de personas que murieron por suicidio despues del uso extremo de ChatGPT.
Fuente: TechCrunch

