Translate

05 abril 2024

Detecção de imagens falsas geradas pela IA: "Se o problema é difícil hoje, será muito mais difícil no próximo ano"

Com a aproximação das eleições nos Estados Unidos e em outras grandes democracias este ano, torna-se cada vez mais evidente que a tecnologia pode não estar preparada para a quantidade de desinformação e de imagens falsas geradas pela IA que serão publicadas online. 

“A coisa mais importante que eles podem fazer nas eleições que se aproximam é dizer às pessoas que não devem acreditar em tudo o que veem e ouvem”, disse Rao, conselheiro da Adobe.

“Se o problema é difícil hoje, será muito mais difícil no próximo ano”, disse Feizi, investigador da Universidade de Maryland. “Será quase impossível em cinco anos.”

Tem sido usado como exemplo o caso de um gestor financeiro de um banco de Hong Kong que transferiu cerca de 25,6 milhões de dólares para fraudadores que usaram a IA ao se passarem por chefes dos trabalhadores numa video chamada.

Utilizando uma variedade de métodos e formando alianças com organizações de notícias, grandes empresas tecnológicas e até fabricantes de câmeras, grupos de especialistas esperam evitar que as imagens de IA corroam ainda mais a capacidade do público de compreender o que é verdade e o que não é. Hoje, a qualidade de algumas imagens falsas é tão boa que é quase impossível distingui-las das reais.

Vários métodos estão sendo desenvolvidos para conter o que está sendo denominado de apocalipse da imagem de IA: Marca d'água em imagens geradas por IA; rotulação de imagens reais; e o desenvolvimento de softwares de detecção.

Mesmo que todos esses métodos sejam bem-sucedidos e as grandes empresas de tecnologia participem totalmente, as pessoas ainda precisarão ser críticas sobre o que veem online.

“Não presuma nada, não acredite em ninguém e em nada e duvide de tudo”, disse Dekens, pesquisador de investigações de código aberto. “Se você estiver em dúvida, presuma que é falso.” Nico Dekens é diretor de inteligência da empresa de segurança cibernética ShadowDragon, uma start-up que desenvolve aplicativos para ajudar as pessoas a conduzirem investigações usando imagens e postagens em mídias sociais da Internet.


A nova ferramenta do Google incorpora digitalmente marcas d'água 

em imagens geradas por IA, que não são visíveis ao olho humano. 

Mesmo que uma imagem tenha sido editada ou manipulada, 

como visto aqui, a ferramenta ainda será capaz de detectar a marca d'água digital.


Imagem gerada pela OpenAI, que afixa cinco pequenas
 caixas coloridas  no canto inferior direito
de seu conteúdo de IA.




Nenhum comentário:

Postar um comentário