Uma nova ameaça cibernética em torno dos sistemas de IA. Uma equipe de pesquisadores da Universidade de Toronto, Canadá, descobriu que as unidades de processamento gráfico (GPUs) podem ser impactadas por um novo tipo de ataque cibernético.
Isso é considerado preocupante, pois as GPUs desempenham um papel crítico na alimentação dos modelos atuais de inteligência artificial, lembra -se de material TechXploreAlém de estar por trás dos serviços de aprendizado de máquina em nuvem.
Rowhammer reduz a eficácia das respostas para 0,01%
Os pesquisadores descobriram que Rowhammer, um ataque de aplicativos maliciosos, não afeta apenas a memória usada pelos processadores (CPUs), mas também afeta a memória das placas de vídeo (GPUs) chamadas GDDR e muito comum em aplicações de inteligência gráfica e artificial.
Quando esse ataque é realizado em placas de vídeo que executam modelos de IA, os efeitos podem ser devastadores: a precisão das respostas cai de 80% para praticamente zero (0,01%), de acordo com a professora Gururaj Saleshwar, da Universidade de Toronto.
Leia mais:
Rowhammer trabalha explorando um defeito físico de memórias. Isso faz com que certas áreas de memória sejam acessadas repetidamente, o que gera interferência elétrica nas regiões próximas. Isso pode alterar dados que não devem ser modificados. Assim, o invasor pode contornar as proteções de segurança e até assumir o controle do sistema.

Tradicionalmente, a segurança era considerada na camada de software, mas estamos cada vez mais observando efeitos físicos na camada de hardware que pode ser explorada como vulnerabilidades.
Gururaj Saieshwar, professor do Departamento de Engenharia Elétrica e de Computação da Universidade de Toronto, em uma nota enviada ao TechXplore.
Um único bit pode comprometer os modelos de IA
Saileshwar trabalhou junto com os estudantes de doutorado em computadores Chris (Shaopeng) Lin e Joyce que, ao desenvolver um ataque de teste de memória GDDR6 em uma placa Nvidia RTX a 6000. O ataque do GPuhammer mostrou que uma única mudança de um pouco é suficiente para reduzir a precisão do modelo de IA.
Para Saileshwar, “isso introduz uma nova maneira pela qual os modelos de IA podem falhar no nível de hardware”. As GPUs com o maior risco são aquelas usadas para gerenciar ambientes em nuvem, não usuários individuais.

Como o teste foi feito:
- Os pesquisadores consideraram as diferenças entre a memória da CPU e da GPU.
- As GPUs são mais difíceis de atacar devido às taxas de atualização de memória mais rápidas; de latência de memória mais lenta; e outras diferenças arquitetônicas.
- O paralelismo da GPU (capacidade de executar várias operações ao mesmo tempo) foi explorado para otimizar o ataque.
- Este ajuste resultou em bitsprovando que o ataque pode ser bem -sucedido.
A descoberta foi compartilhada com a NVIDIA, que emitiu um alerta de segurança para seus clientes e sugeriu que o recurso de código de correção de erros (ECC) foi ativado em todos os sinais. Segundo a empresa, isso pode impedir que um ataque de gpuhammer seja bem -sucedido.
No entanto, ao ativar o recurso, a velocidade de execução das tarefas de aprendizado de máquina cai até 10%.