Se você entrou no NetFlix essa semana (muito provável, não é?) deve ter reparado que há alguns dias o top 1 de item mais assistido é o filme “Zona de Combate”. Tomando o cuidado para não dar spoiler aqui, já que você pode não ter assistido ainda, o longa conta com várias sequências de ação, discussões sobre humanidade e um debate interessante sobre o uso de robôs para fins militares.
Os personagens de Damson Idris, Harp, um soldado acostumado a pilotar drones e o do famoso ator Anthony Mackie, Capitão Leo, a quem aquele é designado, são os dois principais responsáveis pela trama, que se passa em 2036, no Leste Europeu. A história se enche de discussões sobre a ética da inteligência artificial, quando se trata da introdução de robôs nos conflitos armados.
Como nosso interesse é sempre o Direito por aqui, vamos analisar um pouco sobre como estes veículos autônomos poderão (e já podem) afetar o nosso direito penal atual.
*** Este artigo não contém spoilers ***
O Direito Penal e o filme Zona de Combate da NetFlix
Quando falamos em armas autônomas, temos três tipos de classificação, considerando o grau de intervenção humana: a) aquelas que operam sob comando humano, chamadas de human-in-the-loop; b) as que são capazes de selecionar seus alvos e atacá-los automaticamente, mas que permitem o retorno do controle a um humano, chamadas de human-on-the-loop e; c) as armas que atuam sem qualquer comando ou interação com humanos, denominadas human-out-of-the-loop.
No segundo e terceiro tipos surgem uma gama de problemas em torno da responsabilidade sobre as ações que são tomadas, tais como a identificação imprecisa de alvos lícitos ou ilícitos, civis ou militares, combatentes ou não combatentes, bem como os limites do uso da força letal, por exemplo. No final do dia, a grande questão em torno do incorreto funcionamento dos robôs militares decorre da dificuldade das máquinas em entenderem e se comportarem de acordo com as regras de uso de força letal, quais sejam, a necessidade de proteger a vida humana, ser o último recurso disponível e a aplicação de forma proporcional à ameaça.
Assim, percebe-se que o filme se passa em um futuro não tão distante, pouco mais de uma década, em que as máquinas são largamente utilizadas. Teme-se que com a redução dos custos da inteligência artificial utilizada em conjunto com a robótica possam aumentar as chances dessa realidade se tornar a nossa e os conflitos armados passem a ser dominados por essas armas autônomas inteligentes. Além disso, há ainda a possibilidade de que com as forças armadas utilizem estes instrumentos contra a população civil, gerando maior insegurança para nossa relação com a inteligência artificial.
Ok, mas diante disso tudo, como ficaria a responsabilidade penal?
Primeiro, precisamos entender que não há como culpar máquinas por crimes. Enquanto no direito civil discute-se a possibilidade de estabelecer uma e-person, ou seja, atribuir uma personalidade à inteligência artificial, no direito penal ainda não faz sentido, uma vez que não se pode falar em punibilidade. Explicaremos a seguir.
As máquinas inteligentes não são consideradas sujeitas de direito penal e do consequente juízo de reprovação, pois suas ações/omissões não são pautadas em vontade ou consciência. Ou seja, não há experiência subjetiva, portanto, não são capazes de valorar seu próprio comportamento e se adequarem ao ordenamento jurídico. Em termos mais próximos do nosso direito penal, não há capacidade de conduta ou de culpabilidade nos atos da inteligência artificial.
Se os robôs não serão culpados, quem vai ser?
O desafio para o direito penal será então definir como responsabilizar as pessoas naturais envolvidas na decisão de se projetar, fabricar, introduzir no mercado, adquirir e operar os robôs de uso militar. Por enquanto ainda não há um entendimento judicial consolidado, então vamos seguir acompanhando e postaremos atualizações por aqui.