Início Integração Beats Trial Image Ai inicia a ferramenta de anamorfer para revelar a...

Beats Trial Image Ai inicia a ferramenta de anamorfer para revelar a fraqueza em escala

12
0

O Trial B Bits introduziu o Anomorfer, uma ferramenta de código aberto com o objetivo de expor a nova vulnerabilidade de segurança excessiva associada à imagem de imagem de inteligência artificial (AI). Essa fraqueza permite que imagens criadas roubem instruções maliciosas e eventualmente o roubo de dados do usuário, estimulando preocupações entre especialistas em segurança cibernética.

Pesquisadores de bits se baseiam nas idéias do artigo de 2020 de Tu Brunshweig, lideradas por Kikimora Morozova e Suha Sabi Hussein, que primeiro propuseram a teoria dos ataques de escala de imagem no contexto do aprendizado de máquina. Suas descobertas revelam um método que absorve como os sistemas de IA carregam imagens carregadas geralmente carregadas para a eficiência do Ze Pimizing.

– anúncio –

A absorção é causada por vários algoritmos semelhantes, como um vizinho próximo, Bilinner e Bicubic, que pode representar artefatos elétricos. Esses artefatos podem, sem saber, revelar o padrão ou o texto escondido em imagens particularmente projetadas. Quando os modelos de idiomas maiores os delts interpretam essas instruções ocultas como parte da entrada padrão do usuário, eles permitem que os invasores executem ações maliciosas sem a consciência do usuário.

Em uma exposição de teste, os pesquisadores mostraram como as fraquezas poderiam excluir dados do Google Calendar. Eles usaram a CLI Gemini, empregando a opção ‘Trust = True’ da Zepier MCP, permitindo que eles ignorassem os processos padrão de confirmação do usuário. Este teste confirmou que a vulnerabilidade afeta vários sistemas, incluindo o Google Gemini CLI, o Vertex AI Studio, a Interface da Web de Gemini e o Google Assistant no Android, em outros, indicando que o risco pode ser mais expandido.

Para aumentar a conscientização sobre esse problema, o Trail Bits FA Bits lançou o Anamorfer – uma ferramenta beta foi projetada para criar imagens maliciosas destinadas a várias técnicas de redução de redução. Embora o comunicado mostre a possibilidade de abuso, ele também fornece à comunidade de Cyberguberty meios transparentes e reprodutivos de investigar o vetor de ataque e formular uma forte defesa.

À luz dessas descobertas, os pesquisadores recomendam várias estratégias de moldagem. Isso inclui restringir os parâmetros de imagens carregadas, fornecendo pré -visualizações de imagens reduzidas antes do processamento, a necessidade de confirmação clara do usuário para interações sensíveis ao equipamento e proteger a proteção contra injeções rápidas.

– anúncio –

Náusea

Através do anomorafar de código aberto, o julgamento de beterraba não é para alertar o setor público e de segurança sobre os riscos potenciais levantados por essa fraqueza, mas também defende uma abordagem de defesa colaborativa para promover a segurança da IA.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui