I

mplicações do uso desenfreado da inteligência artificial 

A inteligência artificial tem avançado a passos largos, trazendo inovações que otimizam a vida cotidiana em diversos aspectos. No entanto, essa mesma tecnologia também está trazendo à tona preocupações significativas, especialmente com o surgimento de recursos que utilizam imagem e voz humanas, como é o caso das deepfakes e a ferramenta de clonagem de voz, lançada pela OpenAI. Estes métodos sofisticados de manipulação de dados têm chamado atenção pela possibilidade de serem utilizados para fraudes, ameaças à privacidade e desinformação. 

Ferramenta de clonagem de voz carrega riscos

Conforme matéria do Property Casualty 360, a habilidade de replicar e utilizar a voz de qualquer pessoa, seja para propósitos legítimos ou maliciosos, está ao alcance praticamente de qualquer um. Recentemente, um repórter da CBS descobriu um serviço acessível por cinco dólares que pode criar deepfakes de voz a partir de um simples clipe de áudio de 30 segundos. Este processo leva apenas alguns minutos. Dado o quão fácil é obter gravações da voz de indivíduos — sejam eles celebridades, políticos em campanha, ou até mesmo executivos corporativos — as possibilidades de danos e atividades ilegais são significativas. A capacidade de manipular mídia sintética para fraudes ou manipulações certamente não passou despercebida por agentes mal-intencionados. Essas falsificações são reais e suas implicações são alarmantes. Enquanto os cibercriminosos encontram maneiras de utilizar essa tecnologia para seus propósitos enganosos, outros estão lutando para desenvolver métodos eficazes para detectar esses crimes, com resultados variados.

Atriz é vítima de deepfake e alerta para necessidade de proteção

Recentemente a atriz brasileira, Paolla Oliveira, denunciou nas redes sociais o uso não autorizado de sua imagem por inteligência artificial. Ela compartilhou exemplos de como seu rosto foi manipulado em conteúdos falsos disseminados publicamente. Em um vídeo no Instagram, Paolla expressou preocupação com a vulnerabilidade das pessoas diante dessa prática, destacando que sua voz e imagem estão sendo usadas sem consentimento para promover produtos e promoções fictícias. Ela alertou seus seguidores sobre os riscos associados ao consumo indiscriminado de conteúdo online e instou as plataformas e o governo a tomarem medidas para regular essa questão emergente. "Vocês sabiam que até um acionamento jurídico nestes casos pode não ter eficácia? Porque a gente não tem regras sobre este assunto. Bora cobrar as plataformas de mídia, o governo, que está discutindo um projeto e, principalmente, verifiquem as informações", expressou a atriz.

Limites éticos no uso de ferramentas desenvolvidas por IA

Paolla Oliveira não foi a primeira nem a última figura pública a ter sua imagem distorcida sem seu conhecimento. A “Lei Carolina Dieckmann” (nº 12.737/2012) entrou em vigor em 2012, após a atriz Carolina Dieckmann ter suas fotos pessoais vazadas na internet. O caso ganhou grande repercussão e destacou a necessidade urgente de proteger os cidadãos contra crimes cibernéticos. Embora esta lei tenha sido um passo importante para combater crimes cibernéticos no Brasil, ainda carecemos de legislação específica para lidar com deepfakes. A inteligência artificial, ao manipular a imagem e a voz das pessoas, tem sido utilizada em campanhas políticas para segmentar eleitores, personalizar mensagens e influenciar decisões – caso que ocorreu nos Estados Unidos com a figura do presidente Joe Biden. Assim, o uso indiscriminado e possivelmente manipulador da IA levanta preocupações sobre um dos pilares da ética no uso de IA, que é a transparência. Sem transparência e consentimento, há um risco elevado de violação de privacidade e exploração. 

Desenvolvedores podem lançar ferramentas de detecção

Os desenvolvedores de IA podem, ao considerar os impactos potenciais dessas ferramentas, desenvolver tecnologias com mecanismos de segurança que possam detectar e evitar usos inadequados. O portal Property Casualty 360 traz na mesma matéria sobre o assunto, a informação da iniciativa do Laboratório de Perícia de Mídia da Universidade de Buffalo, que lançou o DeepFake-O-Meter  — uma plataforma aberta que permite aos usuários enviar uma imagem, vídeo ou arquivo de áudio para determinar se é real ou falso. A FTC também lançou um desafio de clonagem de voz para encorajar as pessoas a desenvolver algoritmos que podem detectar vozes geradas por IA. Essa pode ser uma possível maneira de intervir e prevenir os impactos causados pelo uso desenfreado dos recursos desenvolvidos a partir da IA.

O desafio de contornar os riscos e o setor de seguros 

Para mitigar os riscos associados às tecnologias de clonagem de voz e deepfakes, é essencial investir em educação e conscientização. Informar o público sobre os potenciais perigos e ensiná-los a identificar conteúdos manipulados pode reduzir significativamente o impacto negativo dessas tecnologias. Além disso, reconhecendo que as deepfakes ameaçam seriamente a veracidade das informações e a confiança pública, as seguradoras podem fomentar a mitigação desse problema. Atualmente, algumas apólices de seguro cobrem apenas perdas decorrentes de invasões de rede ou ataques cibernéticos, deixando uma lacuna na proteção contra fraudes envolvendo deepfakes. Isso destaca a necessidade urgente de revisar as políticas de seguro para incluir medidas mais eficazes de prevenção e reparação de danos causados por deepfakes.

Maneiras de combater a crescente ameaça

Muitos atores do setor adotaram a estratégia de "fogo contra fogo". Algumas seguradoras estão utilizando tecnologias avançadas, como a plataforma BlockFrauds da insurtech do Reino Unido. Essa plataforma emprega blockchain para estabelecer um ambiente seguro onde imagens, vídeos e documentos podem ser avaliados e compartilhados entre as seguradoras. Além disso, a análise de dados de voz é utilizada para identificar possíveis riscos de fraude, analisando a maneira como as pessoas falam e o contexto dos áudios.

Seguradoras podem atuar na prevenção, oferecendo suporte na implementação de sistemas de segurança e promovendo a conscientização sobre as ameaças digitais

As tecnologias de clonagem de voz e deepfakes, baseadas em IA, quando mal utilizadas, podem minar a confiança pública, promover fraudes e violar a privacidade. O caso da atriz brasileira indica urgência em discutir e cobrar de entidades públicas e privadas que estratégias sejam desenvolvidas para desacelerar esta onda crescente. É preciso que haja uma revisão abrangente das políticas de seguro, além da adoção de tecnologias avançadas, como plataformas baseadas em blockchain e análise de dados de voz, para criar um ambiente mais seguro e confiável. Além de fornecer cobertura financeira, as seguradoras podem atuar na prevenção, oferecendo suporte na implementação de sistemas de segurança e promovendo a conscientização sobre as ameaças digitais. A ética no uso da IA, focando em transparência e consentimento, deve ser uma prioridade para garantir que essas tecnologias sejam utilizadas de maneira responsável. A evolução da legislação brasileira também é essencial para acompanhar os avanços tecnológicos e garantir que a privacidade e a integridade dos indivíduos sejam protegidas em um mundo digital cada vez mais complexo.

Postado em
25/7/2024
 na categoria
Tecnologia

Mais sobre a categoria

Tecnologia

VER TUDO