Skip links

Inteligência Artificial e Responsabilidade civil

   Podem as máquinas pensar? Competir com o homem? Solucionar problemas complexos? Há quem diga que não. Porém o intelecto parece não ser mais um traço exclusivo da mente humana. Com os avanços tecnológicos, acompanhados de base de dados complexos, algoritmos e sistemas com inteligência artificial(IA), as máquinas aparentam ter consciência própria. Contudo, a problemática se constrói quando essas ferramentas criam certa independência e passam a cometer infrações.

   A Inteligência Artificial, como dito no texto anterior, já faz parte de nossas tarefas do dia a dia como, por exemplo, e-commerce, alarmes, fabricação de bens de consumo, programas de armamento e segurança, e até mesmo: chatbots que auxiliam no consultivo jurídico. De acordo com David Cox, neurocientista formado em Harvard que tem sua carreira voltada à pesquisa de (AI), bilhões de dólares são investidos atualmente em projetos dessa ferramenta em muitos países, seja de âmbito governamental ou na iniciativa privada.  

  Existe grande expectativa de lucros e êxitos nos mais diversos setores, mas por ser uma área relativamente nova em termos de aplicabilidade, surge também a ocorrência de inteligências que saem do controle. O Facebook, por exemplo, desativou sua inteligência artificial por ela ter desenvolvido linguagem própria. No início da pesquisa, um grupo de cientistas que trabalham na empresa, criou uma AI que simulava situações de negociações. Ela contava com dois agentes diferentes: Bob e Alice, mas com o passar do tempo, eles começaram a conversar entre si desprezando o inglês e utilizando-se de linguagem específica, toda em códigos.

A experiência de AI da Microsoft também não foi muito bem sucedida: terminou com insultos racistas, homofóbicos e antissemitas, após o aparato passar certo tempo interagindo com jovens usuários de uma rede social. A intenção era fazer com que a inteligência tivesse uma linguagem mais coloquial e próxima da realidade, porém, como não fora disponibilizado um filtro, a inteligência começou a formar sentenças de todos os tipos, incluindo as de cunho racista, por conta de comentários que recebia e processava.

A Juristec+, compreende esses pontos e age incessantemente no processo de segurança da informação. A startup desacelerou o desenvolvimento de projetos, investiu em mão de obra específica e se dedicou a identificar, corrigir e proteger dados importantes e confidenciais.

Mas quando isso ocorre, quem se deve culpar? Quem responde por um robô que é dotado de inteligência?


A grande questão não se aplica somente em responsabilizar um culpado. Em muitos países é a pessoa jurídica ou até mesmo o departamento responsável pelo sistema autônomo quem é culpabilizado. Tem-se a necessidade de procurar por medidas de prevenção orientadas pelo poder público, visando a fiscalização de sistemas que possam vir a oferecer algum tipo de risco à população. Se você espera uma resposta fácil e eficaz, definitivamente não irá encontrar. Além da complexidade da ferramente é preciso investimento em segurança da informação. Ainda há pouquíssimos juristas interessados no assunto e o tema envolve pontos jurídicos, antropológicos e filosóficos.

Em suma, apesar das questões levantadas, negar a eficácia e a revolução tecnológica da Inteligência Artificial soa ultrapassado, seria o mesmo que escolher ir de São Paulo a Salvador a pé, porque a construção de carros e aeronaves podem causar algum tipo de risco. Novas tecnologias resultam em novas formas de relação. Como em todo momento de mudança, o homem precisa se adaptar.

Deixe um comentário

Nome*

Site

Mensagem