os últimos anos, se tornou comum _ sobretudo para os usuários de redes sociais _ a utilização de ferramentas de edição de fotos e vídeos para fins de entretenimento. Com o tempo, essas ferramentas se tornaram mais sofisticadas com o advento dos deepfakes.
Isso, por si só, não configura problema algum. A questão é que esses vídeos aprimorados por IA (inteligência artificial) têm a capacidade de desfocar a realidade de um modo tão refinado que se torna difícil para os humanos detectarem (e até para as máquinas).
Por que é um problema para o setor de seguros?
Devido à capacidade de distorcer a realidade de maneira difícil ou impossível de detectar, os deepfakes aumentam significativamente o risco de fraude de mídia digital em sinistros de seguros, sobretudo após um grande número de Companhias terem modernizado seus sistemas e adotado o autoatendimento como forma de processar sinistros.
Na ocasião de um suposto sinistro, fica difícil para a seguradora detectar se a(s) foto(s) enviada(s) para registrar a reclamação e dar início ao processo para recebimento da apólice é autêntica ou não, dado o nível de realismo desse tipo de mídia sintética. Por causa dessa dificuldade na detecção de fraudes, os deepfakes possuem um grande potencial de impactar o setor de seguros.
Os números demonstram inércia da maior parte do ramo segurador
Uma pesquisa conduzida pela Attestiv, empresa que oferece soluções para dar soluções na prevenção e detecção de fraudes e autenticidade às mídias digitais, demonstrou que mais de 80% dos profissionais de seguros entrevistados disseram se preocupar com mídias digitais alteradas ou adulteradas usadas em transações de seguros.
No entanto, apesar do reconhecimento da ameaça, quando perguntados sobre seus prazos para implantação de fotos digitais e validação de mídia, 22% responderam que já têm um sistema implantado, enquanto outros 11% indicaram que teriam um sistema no próximo ano. Juntando tudo isso, um total de 33% das organizações indicou ter ou estar perto de ter uma solução de validação, deixando 67% das organizações relativamente expostas.
Empresas de outros segmentos já adotaram medidas de segurança
A Microsoft lançou, em 2020, uma ferramenta que detecta deepfake em vídeos. A ferramenta chamada Vídeo Authenticator é capaz de identificar manipulações em vídeos. O projeto analisa cada quadro de vídeos e gera uma pontuação de manipulação com uma porcentagem indicando as chances de a mídia ter sido alterada. O objetivo da ferramenta, para a Microsoft, é defender a democracia de ameaças alimentadas pela desinformação.
Exemplo de deepfake abaixo (imagem real do lado esquerdo e alterada do lado direito).
Ritmo da automação de sinistros / Ritmo das medidas de detecção de fraudes
Ainda na pesquisa da Attestiv, foi notado um grande contraste com as respostas sobre estratégias de validação de mídia digital: mais de 43% dos entrevistados da pesquisa indicaram ter solicitações de autoatendimento disponíveis agora, enquanto outros 7% indicaram disponibilidade no próximo ano. Da mesma forma, 49% dos entrevistados indicaram ter sistemas de sinistros STP agora, enquanto outros 7% indicaram disponibilidade no próximo ano. Ou seja, o ritmo da automação de sinistros está acelerado e a tendência é aumentar a velocidade de crescimento.
O problema é que, com os números demonstrados no presente (49% dos entrevistados que usam reivindicações STP e apenas 22% dos entrevistados que usam um sistema de validação de foto e mídia), fica uma enorme lacuna entre o ritmo da automação de sinistros e o ritmo da adoção de medidas de detecção de fraudes, já que com as fotos sendo fornecidas pelo cliente e praticamente nenhuma interação humana no lado do processamento de reclamações, o risco do envio de fotos alteradas, manipuladas ou de mídias sintéticas aumenta bastante e, assim, o risco de fraude é potencializado.
Como os players solucionam a validação de mídia e fotos digitais?
Na mesma pesquisa mencionada acima, 24% dos entrevistados de seguros não tinham certeza de sua abordagem para uma solução, indicando estágios iniciais de planejamento ou talvez evitando o problema iminente. Trinta e seis por cento disseram que confiariam na tecnologia interna ou em seu SIU para resolver o problema. Enquanto 15% considerariam uma solução de insurtech para resolver o problema, quase outros 15% prefeririam terceirizar a solução para provedores ou sistemas de sinistros. Finalmente, 10% se contentam em não fazer nada sobre o problema. Ou seja, as soluções apontadas para a validação de mídias e fotos digitais são variadas entre os players, não havendo, assim, a união do setor no sentido de apontar uma solução comum.
“Mais vale precaução que arrependimento”
Até o momento, ainda não foram estabelecidas medidas mais urgentes e efetivas na área de seguros para evitar que as mídias sintéticas coloquem em risco a detecção de fraudes na automação de sinistros. Porém, é certo afirmar que, com o refinamento da tecnologia que envolve os deepfakes, os fraudadores poderão enxergar uma oportunidade de vitimizar empresas que não tomaram as medidas antifraude necessárias.
Por isso, vale a pena as seguradoras estudarem quais as melhores medidas para detecção de fraudes desse tipo e colocá-las logo em prática, já que as tendências mostram que, nos próximos anos, essa atitude proativa será um grande investimento na mitigação de riscos. É como diz o antigo provérbio Português: “Mais vale precaução que arrependimento”.