As diretrizes sugerem práticas de segurança cibernética que as empresas de IA devem implementar ao projetar, desenvolver, lançar e monitorar modelos de IA.
Os Estados Unidos, o Reino Unido, a Austrália e outros 15 países divulgaram diretrizes globais para ajudar a proteger os modelos de inteligência artificial (IA) contra adulterações, instando as empresas a tornarem seus modelos "seguros por design".
Em 26 de novembro, os 18 países divulgaram um documento de 20 páginas delineando como as empresas de IA devem lidar com sua cibersegurança ao desenvolver ou usar modelos de IA, já que alegaram que "a segurança pode muitas vezes ser uma consideração secundária" na indústria acelerada.
As diretrizes consistiram principalmente de recomendações gerais, como manter um controle rígido sobre a infraestrutura do modelo de IA, monitorar qualquer adulteração nos modelos antes e após o lançamento e treinar a equipe sobre riscos de cibersegurança.
Fonte: Jornal The Guardian
Comments