OpenAI debate quando lançar seu detector de imagens gerado por IA

Advertising


A OpenAI “discutiu e debateu bastante” quando lançar uma utensílio que pode prescrever se uma imagem foi feita com DALL-E 3, o padrão de arte generativo de IA da OpenAI, ou não. Mas a startup não está perto de tomar uma decisão tão cedo.

Isso é de concórdia com Sandhini Agarwal, pesquisadora da OpenAI com foco em segurança e política, que conversou com o TechCrunch em entrevista por telefone esta semana. Ela disse que, embora a precisão da utensílio classificadora seja “muito boa” – pelo menos por sua estimativa – ela não atingiu o limite de qualidade da OpenAI.

Advertising

“Há a questão de lançar uma utensílio que não é confiável, visto que as decisões que ela poderia tomar poderiam afetar significativamente as fotos, porquê se uma obra é vista porquê pintada por um artista ou porquê inautêntica e enganosa”, disse Agarwal.

A precisão direcionada da OpenAI para a utensílio parece ser sobremaneira subida. Mira Murati, diretora de tecnologia da OpenAI, disse esta semana na conferência Tech Live do Wall Street Journal que o classificador é “99%” confiável para prescrever se uma foto não modificada foi gerada usando DALL-E 3. Talvez a meta seja 100%; Agarwal não quis manifestar.

Advertising

Um rascunho da postagem do blog OpenAI compartilhado com o TechCrunch revelou levante pormenor interessante:

“[The classifier] permanece com mais de 95% de precisão quando [an] A imagem foi sujeita a tipos comuns de modificações, porquê incisão, redimensionamento, compactação JPEG ou quando texto ou recortes de imagens reais são sobrepostos em pequenas porções da imagem gerada.”

A relutância da OpenAI pode estar ligada à controvérsia em torno da sua utensílio de classificação pública anterior, que foi projetada para detectar texto gerado por IA não exclusivamente a partir de modelos da OpenAI, mas também de modelos de geração de texto lançados por fornecedores terceirizados. A OpenAI puxou o detector de texto escrito por IA devido à sua “baixa taxa de precisão”, que foi amplamente criticada.

Agarwal implica que o OpenAI também está recluso à questão filosófica do que, exatamente, constitui uma imagem gerada por IA. A arte gerada do zero pelo DALL-E 3 se qualifica, obviamente. Mas e uma imagem do DALL-E 3 que passou por várias rodadas de edições, foi combinada com outras imagens e depois passou por alguns filtros de pós-processamento? É menos simples.

OpenAI DALL-E 3

Uma imagem gerada pelo DALL-E 3.

“Nesse ponto, essa imagem deveria ser considerada um pouco gerado por IA ou não?”, Disse Agarwal. “No momento, estamos tentando mourejar com essa questão e realmente queremos ouvir artistas e pessoas que seriam significativamente impactadas por tal [classifier] ferramentas.”

Várias organizações – não exclusivamente a OpenAI – estão explorando marcas d’chuva e técnicas de detecção para mídia generativa à medida que os deepfakes de IA proliferam.

A DeepMind propôs recentemente uma especificação, SynthID, para marcar imagens geradas por IA de uma forma que seja imperceptível ao olho humano, mas que possa ser detectada por um detector especializado. A startup francesa Imatag, lançada em 2020, oferece uma utensílio de marca d’chuva que afirma não ser afetada pelo redimensionamento, incisão, edição ou compactação de imagens, semelhante ao SynthID. Ainda outra empresa, Steg.AI, emprega um padrão de IA para impor marcas d’chuva que sobrevivem ao redimensionamento e outras edições.

O problema é que a indústria ainda não se uniu em torno de uma única marca d’chuva ou padrão de detecção. Mesmo que isso aconteça, não há garantia de que as marcas d’chuva – e os detectores – não serão derrotáveis.

Perguntei a Agarwal se o classificador de imagens da OpenAI qualquer dia suportaria a detecção de imagens criadas com outras ferramentas generativas não OpenAI. Ela não se comprometeu com isso, mas disse que – dependendo da recepção da utensílio classificadora de imagens tal porquê existe hoje – é um caminho que a OpenAI consideraria explorar.

“Uma das razões pelas quais agora [the classifier is] A especificidade do DALL-E 3 é porque é, tecnicamente, um problema muito mais tratável”, disse Agarwal. “[A general detector] não é um pouco que estamos fazendo agora… Mas dependendo de onde [the classifier tool] vai, não estou dizendo que nunca faremos isso.

Pablo Oliveira
Pablo Oliveirahttp://pcextreme.com.br
Sou diretamente responsável pela manutenção, otimização, configuração e SEO de todos os sites de minha propriedade. Além disso, atuo como colunista, editor e programador.

Artigos relacionados

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Artigos recentes