Investigadores de ETH Zurich crearon un ataque que evade las protecciones de la inteligencia artificial

Los modelos de inteligencia artificial que dependen de comentarios humanos para garantizar que sus resultados sean inofensivos y útiles pueden ser universalmente vulnerables a los llamados ataques “envenenados”