Los modelos de inteligencia artificial que dependen de comentarios humanos para garantizar que sus resultados sean inofensivos y útiles pueden ser universalmente vulnerables a los llamados ataques “envenenados”
Los modelos de inteligencia artificial que dependen de comentarios humanos para garantizar que sus resultados sean inofensivos y útiles pueden ser universalmente vulnerables a los llamados ataques “envenenados”