Acordo contra Robots Assassinos. Sim, é verdade!

Parece um tema saído do filme “I, Robot” mas não é. A verdade é era objetivo desenvolver robots com vontade própria de assassinar, mas foi lançada uma petição contra esta situação. Milhares de cientistas especializados em inteligência artificial (IA) afirmaram que não participariam no desenvolvimento de robots com capacidade de atacar pessoas sem a supervisão humana.

Acordo contra Robots Assassinos. Sim, é verdade!

Demis Hassabis, da Google DeepMind, e Elon Musk, da SpaceX, estão entre as mais de 2400 assinaturas que pretendem impedir que empresas militares e nações construam armas autónomas e letais. Mais de 150 empresas e organizações ligadas à IA adicionaram os seus nomes à promessa anunciada na quarta-feira na Conferência Internacional Conjunta sobre IA em Estocolmo.

O acordo surgiu com a preocupação de cientistas e organizações que destacam os perigos de entregar as decisões de vida ou morte a máquinas com IA. O pacto segue também os apelos por uma proibição preventiva da tecnologia, que os ativistas acreditam que pode conduzir a uma nova geração de armas de destruição massiva.

Orquestrado pela organização “The Future of Life Institute”, o compromisso pede aos governos que concordem com normas, leis e regulamentos que proíbam o desenvolvimento de robots assassinos. Na ausência dessas medidas, os signatários comprometem-se a “não participar nem apoiar o desenvolvimento, fabrico, comércio ou uso de armas autónomas letais”.

Yoshua Bengio, do Instituto de Aprendizagem de Algoritmos de Montreal, disse ao “The Guardian” que, se a promessa envergonhasse as empresas e organizações militares que constroem armas autónomas, a opinião pública iria contra elas. “Esta abordagem funcionou com as minas terrestres. Embora os principais países, como os EUA, não tenham assinado o tratado que proíbe as minas, as empresas americanas pararam de fabricar essas armas”.

Os investigadores podem optar por não trabalhar com armas autónomas, mas o que os outros fazem com os seus estudos está efetivamente fora do seu controlo. “Precisamos de construir uma norma internacional de que armas autónomas não são aceitáveis”, disse Toby Walsh, professor de IA na Universidade de New South Wales, em Sydney.

“Não podemos impedir uma pessoa de construir armas autónomas, assim como não podemos impedir uma pessoa de construir uma arma química”, referiu. “Mas se não queremos que Estados ou terroristas tenham fácil acesso a armas autónomas, devemos garantir que não serão vendidos abertamente”.

O exército é um dos maiores financiadores da tecnologia de IA. Com sistemas de computador avançados, os robots podem voar por cima de terrenos hostis, mover-se no solo e patrulhar os mares. Estão ainda em processo alguns sistemas de armas mais sofisticados.

Esta não foi a primeira vez que os investigadores se manifestaram contra o excessivo desenvolvimento das armas autónomas. Em abril, mais de 50 académicos proeminentes assinaram uma carta a apelar a um boicote ao Instituto Coreano de Ciência e Tecnologia Avançada (KAIST, na sigla original). Os investigadores, oriundos de cerca de 30 países e especialistas na área da Inteligência Artificial, acusam aquele instituto de estar “a acelerar a corrida ao desenvolvimento” de armas autónomas, para criar robots assassinos, à imagem do personagem metálico de Schwarzenegger.