
Existe um momento na vida adulta em que você percebe que vivemos, sim, na Matrix, e a simulação não é a nada próximo de uma civilização avançada, mas numa grande experiência social mal supervisionada por máquinas contaminadas por vírus. Esse momento chega quando você descobre que o chefe da cibersegurança dos EUA, o Zé Ruela cujo trabalho é basicamente impedir que segredos vazem como cano velho, decidiu subir documentos sensíveis para o…
ChatGPT! E nem é o pago, mas o gratuitão, mesmo!
Madhu Gottumukkala, então diretor interino da CISA, a agência responsável por proteger a infraestrutura digital americana, achou uma boa ideia usar o Chato do GePeTo para analisar documentos internos do governo. Não um chatbot interno, não um GPT customizado, rodando localmente. Nada de Inteligência Artificial controlada. Era o ChatGPT aberto, popular, frequentado por adolescentes, estagiários, curiosos e gente que pergunta se tubarão escova os dentes depois das refeições. O equivalente digital de deixar o cofre aberto porque “é só um minutinho”.
Caso vocês não estejam ligados, o Murican Fofoqueiro lida com dados sensíveis, e por definição “sensível” é exatamente aquilo que não se joga na internet como quem compartilha receita de bolo no Tik Tok. Se esse corno que deveria zelar pelos segredos não sabe como segredos funcionam, acho que Murica Fuck Yeah tem sérios problemas. É o tipo de distinção que qualquer funcionário júnior aprende na primeira semana, geralmente logo depois de “não clique em links estranhos” e “não alimente o ransomware”.
O mais bonito, no sentido trágico da palavra, é que Gottumukkala tinha autorização especial para usar IA. Enquanto o resto do DHS era mantido longe dessas ferramentas como criança longe de tomada, ele brincava de futurismo corporativo com documentos que deveriam ficar quietinhos em servidores fechados. Resultado? Os sistemas internos de segurança dispararam alertas. Até as máquinas ficaram nervosas. Quando o software é o adulto responsável da sala, algo deu muito errado.
A defesa oficial veio no clássico dialeto do desastre controlado. O uso foi “limitado”, “curto”, “sem impacto conhecido”. Sempre é. Todo vazamento começa assim. Todo incêndio começa pequeno. Todo idiota começa achando que está tudo sob controle. A diferença é que aqui o erro não veio de um estagiário mal pago, mas do sujeito cujo cargo basicamente exige paranoia profissional em nível clínico.
E se você acha que isso é apenas um deslize isolado, um tropeço humano em tempos de tecnologia nova, lembre-se de que estamos falando de alguém que já falhou num teste de polígrafo. O roteiro praticamente se escreve sozinho. É como contratar um salva-vidas que não sabe nadar e se orgulha disso no currículo.
Enquanto isso, servidores públicos de carreira são afastados, investigações internas se acumulam e a confiança institucional escorre pelo ralo. O cidadão comum observa tudo com aquela expressão clássica de quem percebe que a casa está pegando fogo, mas o responsável pela mangueira resolveu testar um isqueiro novo. E ainda pediu feedback.
No fim das contas, o que temos não é o problema de uso da Inteligência Artificial, mas de certas criaturas portadoras de Burrice Natural.
Fonte: Politico
