Enquanto os especialistas alertam que as imagens, áudio e vídeo gerados pela inteligência artificial podem influenciar as eleições deste ano nos EUA, a OpenAI esta para lançar uma ferramenta concebida para detectar conteúdo criado pelo seu popular gerador de imagens, o DALL-E. Mas a proeminente start-up de A.I. reconhece que esta ferramenta é apenas uma pequena parte do que será necessário para combater os chamados deepfakes nos próximos meses e anos.
A OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.
“Isso é para dar início a novas pesquisas”, disse Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e políticas. “Isso é realmente necessário.”
A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares como Midjourney e Stability.
Como esse tipo de detector de deepfake é movido por probabilidades, ele nunca pode ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI trabalha para combater o problema de outras formas.
Assim como os gigantes da tecnologia Google e Meta, a empresa está se juntando ao comitê diretor da Coalition for Content Provenance and Authenticity, ou C2PA, em um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, arquivos e clipes de áudio e outros arquivos que mostram quando e como foram produzidos ou alterados – inclusive com I.A.
A OpenAI também disse que está desenvolvendo maneiras de “marcar marcas d’água” em sons gerados por I.A. para que possam ser facilmente identificados no momento. A empresa espera dificultar a remoção dessas marcas d’água.
Ancorado por empresas como OpenAI, Google e Meta, o A.I. a indústria enfrenta uma pressão crescente para prestar contas do conteúdo que os seus produtos produzem. Os especialistas apelam à indústria para que evite que os utilizadores gerem material enganoso e malicioso – e para que ofereça formas de rastrear a sua origem e distribuição.
Em um ano repleto de eleições importantes em todo o mundo, os apelos a formas de monitorar a linhagem da I.A. e seus conteúdos estão ficando cada vez mais desesperadores. Nos últimos meses, seus áudios e imagens já afetaram as campanhas políticas e as votações em locais como a Eslováquia, Taiwan e a Índia.
O novo detector deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse Agarwal: Na luta contra os deepfakes, “não existe solução mágica”.
Sua empresa está segura?
Nosso portfólio de serviços proporciona à sua empresa a segurança de contar com uma equipe completa, experiente e altamente qualificada para cuidar das informações do seu negócio. O atendimento é personalizado e prestado por profissionais que procuram conhecer profundamente o seu negócio, dando suporte ao seu crescimento.
- Relação transparente na contratação de serviços, que lhe permitirá acompanhar e avaliar o andamento e os resultados dos trabalhos realizados;
- Tranquilidade de saber que seu ambiente de segurança e infraestrutura de TI está em mãos competentes, deixando você livre para se concentrar no seu core business;
- Consultoria contínua, atualizando constantemente sua equipe sobre as novas ameaças e tipos de ataques. Além das principais metodologias e soluções inovadores, para manter seu ambiente seguro e melhorar o desempenho do seu negócio;
- Orientá-los sobre as melhores práticas do mercado, auxiliando o Gestor de TI no planejamento estratégico de segurança de informação e no processo de tomada de decisão.
Fonte: The New York Times