Preocupações sobre agentes de IA no Windows 11: Entenda os riscos antes de habilitar

O Windows 11 volta a estar no centro das atenções, desta vez devido a atualizações recentes em sua documentação sobre agentes de IA, que geraram novas apreensões sobre seu funcionamento e os potenciais riscos que podem apresentar.
A polêmica atual surgiu de um documento de suporte sobre 'Recursos Agentes Experimentais', publicado em outubro de 2025, e que foi atualizado há algumas semanas.
Como destacado pelo Windows Latest, a documentação foi revista quando a Microsoft implementou a opção para ativar recursos experimentais em versões de teste do Windows 11. Isso ocorreu com o lançamento da primeira versão do agente, Copilot Actions, que pode auxiliar em tarefas como organizar fotos e eliminar duplicatas.
Com a implementação do Copilot Actions, muitos começaram a examinar mais de perto as advertências contidas na documentação, que, em alguns trechos, soam preocupantes. Uma das advertências destaca que os modelos de IA "podem ocasionalmente ter alucinações e produzir resultados inesperados", o que significa que podem cometer erros ou gerar informações absurdas.
Outro ponto ressaltado é a possibilidade de que os agentes de IA introduzam "novos riscos de segurança, como injeção cruzada de prompts", um aspecto que levanta ainda mais preocupações.
A Microsoft já havia abordado esses novos vetores de ataque desde o ano passado, informando que os sistemas criados para o Windows 11 foram desenvolvidos com esses riscos em mente, o que sugere que as defesas devem ser robustas o suficiente para evitar intrusões.
Conforme observa o Windows Latest, os agentes de IA estão isolados no Windows 11, operando em um "espaço de trabalho de agentes" que funciona como um usuário local separado, com acesso limitado aos arquivos do usuário, baseado em permissões concedidas. Isso deve ajudar a conter esses agentes e, mesmo que sejam comprometidos, suas opções de exploração do sistema devem ser restritas.
No entanto, a confiança no sistema será testada quando esses agentes forem utilizados no mundo real. A Microsoft aprendeu muito com episódios anteriores, como o caso do Recall, que não inspirou confiança no público.
A maior preocupação, conforme destacado pelo PC Gamer, é a cautela adicionada pela Microsoft em sua documentação revisada: "Recomendamos que você leia estas informações e compreenda as implicações de segurança de habilitar um agente em seu computador". Essa frase levanta questões sobre a responsabilidade da Microsoft em relação aos riscos que os usuários estão assumindo ao habilitar tais recursos.
Embora a fase atual de testes dos agentes de IA seja experimental, é importante que os usuários estejam cientes dos