IA responsável: o desafio da transparência e segurança
top of page
Guilherme Favaron

IA responsável: o desafio da transparência e segurança

A indústria de inteligência artificial viu grandes avanços recentemente, com o lançamento de modelos de linguagem avançados como o Gemini Ultra da Google. No entanto, questões sobre confiança e transparência dessas ferramentas continuam sendo um desafio. Enquanto empresas e governos buscam regular a IA para garantir sua segurança e responsabilidade, a tecnologia atual ainda não oferece maneiras eficientes para inspecionar e auditar esses sistemas complexos. Uma startup chamada EQTY Lab está explorando o uso de criptografia e blockchain para resolver esse problema.


Este artigo analisa os recentes acontecimentos nesta indústria em rápida transformação e os obstáculos que precisam ser superados na jornada rumo a uma IA confiável.


Inteligência Artificial transparente e segura
Inteligência Artificial transparente e segura

A formação do consórcio de segurança de IA do Departamento de Comércio dos EUA


Os reguladores parecem estar olhando além das capacidades atuais de tais sistemas e modelos de inteligência artificial disponíveis. Nesta semana, o Departamento de Comércio dos Estados Unidos anunciou um consórcio com mais de 200 empresas de tecnologia, acadêmicos e pesquisadores.


Esse consórcio aconselhará o novo Instituto de Segurança de IA do governo sobre padrões de teste e outras diretrizes. O objetivo é desenvolver maneiras de garantir inovação responsável e segura em IA, seguindo uma ordem executiva sobre IA emitida pela Casa Branca no ano passado.


No entanto, as regulamentações propostas nos Estados Unidos, Europa e outros lugares parecem encarar os modelos de IA como produtos que podem ser inspecionados e aprovados ​​quanto à segurança, como carros ou eletrodomésticos. Na realidade, os LLMs são como um cozido contínuo, com ingredientes de muitas fontes sendo constantemente misturados.


Além disso, a ideia de usar apenas um modelo é ultrapassada. Para um único produto de IA, mais modelos estão sendo empregados à medida que os desenvolvedores combinam funções especialmente treinadas para executar tarefas específicas.


Na realidade, os LLMs são como um cozido contínuo, com ingredientes de muitas fontes sendo constantemente misturados.

A questão da confiança


Já estamos provavelmente nos aproximando de um lugar em que será difícil e demorado para as empresas verificar todos os modelos de IA que usam. É por isso que, em teoria, a ideia da startup EQTY Lab faz sentido: uma assinatura criptográfica permitiria que os desenvolvedores retivessem segredos comerciais ao mesmo tempo que oferecessem alguma transparência sobre como os modelos foram desenvolvidos.


Por exemplo, o modelo Llama 2 da Meta não divulga o conteúdo dos dados usados ​​para treiná-lo. Isso levou a tensões, pois a empresa enfrenta processos alegando que violou leis de direitos autorais ao incluir trabalhos protegidos em seus dados de treinamento. Digamos que a Meta, em um cenário puramente hipotético, desejasse provar que um conjunto específico de trabalhos protegidos por direitos autorais não estava incluído nos dados. A EQTY diz que está desenvolvendo uma maneira da Meta poder provar isso sem ter que divulgar todo o conjunto de treinamento.


A Accenture, uma gigante de consultoria, está testando a tecnologia da EQTY Lab para ver se o software poderia ser dimensionado para atender a milhares de seus clientes, muitos dos quais estão na Fortune 100. O trabalho está sendo feito à medida que os países propõem formas de abordar as promessas e riscos da IA.


Enfim...


A IA responsável é absolutamente crítica e está no topo das prioridades de todos. Mas como passar de falar sobre IA responsável para realmente entregá-la? As regulamentações parecem encarar os modelos de IA como produtos a serem inspecionados e aprovados. Mas a realidade é muito mais complexa.


Sistemas como o da EQTY Lab, empregando criptografia e blockchain para rastrear as origens e características dos modelos, podem ser uma parte vital da solução. Eles permitem transparência sem exigir a divulgação total dos segredos comerciais. Conforme governos e empresas buscam garantir a segurança e a ética da IA ao mesmo tempo que fomentam a inovação, essas novas abordagens tecnológicas provavelmente desempenharão um papel fundamental.

bottom of page