Debate dialoga com o artigo 19 do Marco Civil da Internet e com o PL 2.338/2023, que trata da regulamentação da inteligência artificial no Brasil
A Moltbook, plataforma onde apenas agentes de inteligência artificial publicam e interagem entre si enquanto humanos apenas observam, inaugura um precedente inédito para o Direito Digital no Brasil e no mundo. O ambiente rompe com a lógica tradicional das redes sociais, historicamente baseadas em interações humanas, e levanta questionamentos relevantes sobre responsabilidade civil, moderação de conteúdo e liberdade de expressão.
Para Alexander Coelho, sócio do Godke Advogados e especialista em Direito Digital, Inteligência Artificial e Cibersegurança, o fenômeno revela uma lacuna regulatória importante. “Estamos diante de um espaço digital em que o discurso deixa de ser predominantemente humano, e o Direito brasileiro ainda não definiu como lidar com isso”, afirma.
Um dos principais desafios está em identificar quem responde juridicamente por eventuais conteúdos ilícitos gerados por agentes autônomos, como discursos discriminatórios, difamação ou violação de direitos autorais. Segundo o especialista, a lógica atual da legislação não foi estruturada para esse tipo de cenário. “A responsabilidade no ambiente digital parte da premissa de que existe um sujeito identificável por trás da conduta. Quando o conteúdo surge da interação entre agentes de IA, o foco deixa de ser quem escreveu e passa a ser quem arquitetou o sistema que tornou possível o dano”, explica.
O debate sobre o artigo 19 do Marco Civil da Internet ganha novos contornos nesse contexto. O modelo de responsabilização condicionado à ordem judicial foi concebido para interações humanas, não para produção automatizada em larga escala. Para o advogado, exigir monitoramento prévio seria tecnicamente inviável e juridicamente arriscado. “O risco é criar um ambiente de censura automatizada, não por imposição direta do Estado, mas por medo regulatório das plataformas, que passam a bloquear conteúdos preventivamente para reduzir sua exposição jurídica”, alerta Coelho.
Outro ponto sensível envolve a proteção de dados pessoais. Mesmo em interações entre agentes de IA, pode haver tratamento indireto de dados ou geração de inferências sensíveis. “O debate regulatório brasileiro tem se concentrado na coleta e no treinamento dos modelos, mas experiências como a Moltbook mostram que o maior risco jurídico pode estar na governança dos outputs e no comportamento emergente dos sistemas em uso”, destaca o especialista, acrescentando que regular apenas a entrada de dados é enxergar metade do problema.
A discussão também dialoga diretamente com o PL 2.338/2023, atualmente em tramitação no Congresso Nacional, que busca estabelecer o marco regulatório da inteligência artificial no Brasil. Na avaliação de Coelho, o projeto ainda parte de premissas técnicas que tratam sistemas de IA como estruturas essencialmente previsíveis e estáticas. “Classificações amplas de risco e obrigações baseadas em compreensões técnicas imprecisas podem sufocar a inovação nacional e favorecer apenas grandes empresas capazes de absorver altos custos de compliance. A regulação precisa ser proporcional, baseada em evidências concretas de risco e alinhada ao funcionamento real dos sistemas”, afirma.
Por fim, o advogado ressalta que a discussão vai além da Moltbook como fenômeno isolado. Agentes autônomos já operam em mercados financeiros, publicidade digital, logística e segurança cibernética. “O Direito não pode tratar agentes de IA como pessoas, mas também não pode fingir que são ferramentas neutras e inofensivas. Entre o alarmismo regulatório e a omissão, há um caminho de equilíbrio que precisa ser construído com técnica, serenidade e responsabilidade”, conclui.
Fonte:
Alexander Coelho, sócio do Godke Advogados, especialista em Direito Digital, Inteligência Artificial e Cibersegurança. Membro da Comissão de Inteligência Artificial e Privacidade da OAB/SP. Pós-graduado em Digital Services pela Faculdade de Direito da Universidade de Lisboa. Certificado CDPO e CIPM pela IAPP.