Quando A Inteligência Artificial Matar Alguém, Quem É O Responsável?

Quando A Inteligência Artificial Matar Alguém, Quem É O Responsável? 1

Estamos ainda nos anais da inteligência artificial, nos primeiros estágios de uma vasto revolução em que temos de nos acostumarmos a que robôs e instrumentos automatizados de toda a meio ambiente convivam com a gente. E o que é mais: a levarem a cabo não só as tediosas tarefas de que desejamos nos livrar, porém bem como alguns atos que acreditávamos puramente e exclusivamente humanos.

Não falamos do afeto entre humanos e robôs —tema, por outro lado, muito debatida e com reflexo até mesmo em obras de Hollywood como Her— entretanto do lado mais sombrio do ser humano: a morte e a destruição. Dito assim sendo soa tremendista, mas recapacitemos somente um segundo.

Acabamos de assistir à morte da primeira pessoa em razão de um automóvel autônomo de Uber, o qual a começar por um ponto de visibilidade estrito, talvez seja considerada como um homicídio e, a inteligência artificial do carro, como tua autora.

Mas há também ainda mais máquinas em processos industriais que conseguem causar acidentes fatais em caso de problema ou negligência. São cenários mais coloridas, entretanto em todos eles se repete o mesmo modelo: um acaso —ou isto que podemos pensar— nos que, se o autor fosse um ser humano, ele seria julgado por homicídio, em diferentes graus.

Mas, o que ocorre quando o autor é um ente abstrato, como a inteligência artificial? Você pode matar um algoritmo ou o assassino é o que o autor dessas linhas de código? No primeiro caso, Existem circunstâncias em que se lhe possa permitir matar?

Onde ficam as fronteiras éticas em tudo isso, se é que existem? Existe alguma lei que fale de inteligências artificiais assassinas? O primeiro de tudo é discernir se considerarmos que a inteligência artificial tem técnica ética em si mesma e, desta maneira, pode ser responsável pelo suas próprias decisões morais. Conforme avançam modelos como o aprendizado automático ou o deep learning, parece mais claro que as IA podem vir a gerar um código de conduta respectivo, além do que lhes foi imposta originalmente para o ser agendadas.

nós Vemos exemplos concretos dessa técnica em aspectos mais leves como os chatbots de Facebook que tiveram que ser desligados por causa de tinham construído a sua própria linguagem, indecifrável para os programadores que lhes haviam dado a vida. E se uma inteligência artificial possa evoluir até ter uma mente que, de forma proativa, que pretenda matar?

  • 4 Sistemas de bombeamento
  • Também dispõem de um terraço para desfrutar de alguns produtos ‘in situ’
  • Alice: o bot de um banco porteño
  • 362 Eduardo Sacheri
  • 5 Ayano Kōsaka

No mínimo em teoria, este ponto é ignorado. Essa é a linha vermelha que se deve escoltar no projeto, realização e uso de qualquer tipo de robô ou solução automatizada. Mas isso não diminui em que as máquinas si tenham de realizar com a ética humana.

Concretamente, o relatório europeu —dirigido na professora Nathalie Nevejans— exige que cada IA aderir a princípios como a proteção da dignidade da pessoa humana, a privacidade, a liberdade ou a igualdade de acesso. Esta presunção ética é fundamental na hora de aproximar-se o seguinte debate: a responsabilidade penal.

Quando A Inteligência Artificial Matar Alguém, Quem É O Responsável?
Rolar para o topo