ANÁLISES

AGRO


SOJA


MILHO


ARROZ


ALGODÃO


TRIGO


FEIJÃO


CANA


CAFÉ


CARNES


FLV


INSUMOS

15/Jul/2024

IA: empresas adotam medidas e aguardam regulação

Na ausência de uma regulamentação específica, empresas que utilizam inteligência artificial (IA) no Brasil dizem estar adotando, cada uma a seu modo, práticas de governança para garantir o "uso correto" dessas tecnologias. As políticas internas fazem parte da estratégia de companhias de diferentes tamanhos, de gigantes como Google e IBM até startups nacionais. No dia 9 de julho, a votação do projeto de lei (PL) 2.338/2023, que regulamenta a inteligência artificial no País, foi adiada pela terceira vez na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. Apesar disso, especialistas avaliam que o Brasil é um dos lugares onde a discussão está mais adiantada. Mesmo sem uma legislação em vigor, a IBM, tem um Conselho de Ética para supervisionar o desenvolvimento de inteligência artificial. Segundo a empresa, há três princípios que norteiam a atuação na área.

O propósito da IA é aumentar a inteligência humana; dados e insights pertencem ao seu criador; e as empresas devem ser claras sobre quem treina seus sistemas de Inteligência Artificial e sobre quais dados foram usados no treinamento. O Google também conta com uma equipe de governança que atua em todos os projetos da empresa e disponibiliza um kit de ferramentas chamado "IA Responsável", para auxiliar desenvolvedores na criação de sistemas. Entre as menores, a preocupação com uso de dados está igualmente no radar. A Docket, startup fundada em 2016, utiliza inteligência artificial para otimizar o acesso a documentos e a extração de informações, sobretudo em operações de crédito. As práticas são orientadas por previsões contratuais. A startup utiliza os dados dos clientes para treinar seus modelos desde que haja acordo formal entre as partes. As demais informações que compõem as bases da Docket são públicas. A Lei Geral de Proteção de Dados (LGPD), por exemplo, é levada muito a sério pela startup.

As discussões sobre IA frequentemente giram em torno do uso de dados pessoais. Isso porque os modelos de aprendizagem de máquina (machine learning) se alimentam de informações diversas para "aprender a pensar" de forma parecida com a dos humanos. A geração de produtos também depende de dados, como ocorre com imagens criadas a partir do estilo de algum pintor conhecido, por exemplo. No dia 10 de julho, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD) decidiu manter uma Medida Preventiva aplicada à Meta, que havia recorrido da decisão após notificação na semana anterior. A ordem é para que a empresa interrompa o tratamento de dados pessoais de usuários para treinamento da IA do grupo. Seguindo a discussão extensa sobre dados e IA, o substitutivo do PL que regulamenta a inteligência artificial no Brasil, apresentado pelo senador Eduardo Gomes (PL-TO), propõe justamente que a ANPD seja a autoridade coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

O Google Brasil levou um posicionamento diferente para a audiência pública realizada no dia 3 de julho na CTIA do Senado. Segundo a empresa, a governança deve ser distribuída, e os órgãos reguladores setoriais deveriam ser valorizados em suas próprias estruturas. O Google apoia essa capacitação nas áreas de expertise e sugere um modelo descentralizado e subsidiário. O EFCAN Advogados concorda que existem outras aplicações da inteligência artificial que precisam ser consideradas de maneira transversal ao uso de dados. Pode parecer fazer sentido a ANPD ser a autoridade máxima sobre IA no País porque aparentemente tudo envolvendo IA passa por dados pessoais, mas a verdade é que nem tudo. Há sistemas agrícolas e meteorológicos, por exemplo. O ideal seria cada setor regulamentar internamente o uso desta tecnologia; obviamente respeitando a LGPD. Fonte: Broadcast Agro. Adaptado por Cogo Inteligência em Agronegócio.