Especialistas detalham falhas ocultas do “vibe coding” e a resposta da plataforma MARI
Apple @ Work Podcast – No episódio divulgado em 28 de abril, o programa reuniu Alan Snyder, da NowSecure, para discutir como o “vibe coding” — prática de criar apps com trechos de código gerados por modelos de linguagem — eleva o risco de brechas de segurança em dispositivos móveis.
- Em resumo: MARI analisa apps iOS e Android para identificar vulnerabilidades injetadas por IA antes da publicação.
MARI vira escudo contra falhas invisíveis
Snyder explicou que o Mobile Application Risk Intelligence (MARI) audita bibliotecas de terceiros e trechos produzidos por LLMs, apontando padrões de uso indevido de APIs, permissões excessivas e exposições de dados sensíveis. Estudos citados por Wired revelam que códigos gerados por IA podem apresentar até 40 % mais bugs críticos quando não auditados.
“O desenvolvedor confia na IA para acelerar entregas, mas esquece que cada sugestão do modelo precisa passar por testes de segurança tão rigorosos quanto qualquer código escrito manualmente”, alertou Snyder durante o episódio.
Por que o tema preocupa empresas que usam iPhone no trabalho
Com mais de 2 milhões de apps na App Store, a Apple exige que cada atualização passe por revisão, mas nem sempre detecta lógicas de negócio mal-implementadas. Plataformas como o MDM da Mosyle facilitam o gerenciamento de dispositivos, porém a integridade do aplicativo continua dependente do código fonte. Nesse cenário, ferramentas de análise estática como MARI ganham relevância por cruzar padrões anômalos com bases de exploits conhecidos, algo vital para setores regulados que lidam com dados de saúde ou financeiros.
Além disso, o histórico do ecossistema mostra que falhas como o XcodeGhost, em 2015, comprometeram milhares de usuários mesmo dentro do ecossistema fechado da Apple — reforçando a necessidade de verificação de terceiros.
O que é “vibe coding” em desenvolvimento mobile?
É a prática de aceitar sugestões de IA sem revisão detalhada, focando mais na velocidade de entrega do que na qualidade do código.
Como o MARI detecta riscos em apps gerados por IA?
A ferramenta faz análise estática e dinâmica, compara com banco de CVEs e identifica permissões ou APIs suspeitas.
O que você acha? Sua empresa já audita códigos sugeridos por IA? Para mais análises sobre o universo Apple, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / NowSecure