Crédito: Dominio publico
Os cientistas propuseram uma nova estrutura internacional para manter a ética e o bem-estar humano na vanguarda de nosso relacionamento com a tecnologia.
Desde terapia genética e doenças previstas pela IA até carros autônomos e impressão em 3D, os avanços na tecnologia podem melhorar a saúde, liberar tempo e aumentar a eficiência.
No entanto, apesar das melhores intenções de seus criadores, a tecnologia pode levar a consequências não intencionais para a privacidade e autonomia individuais.
Atualmente, não existe uma regulamentação internacionalmente acordada sobre quem, por exemplo, tem acesso aos dados gravados por caixas-pretas em carros, TVs inteligentes e assistentes pessoais habilitados para voz - e descobertas recentes mostraram que a tecnologia pode ser usada para influenciar o comportamento da votação.
Agora, os pesquisadores do Imperial College London sugeriram uma nova estrutura regulatória com a qual os governos podem minimizar as conseqüências não intencionais de nosso relacionamento com a tecnologia. A parte do comentário é publicada na Nature Machine Intelligence .
O grupo de pesquisadores, liderado pelo professor Rafael Calvo da Imperial, diz que sua proposta pode ajudar a garantir que interesses humanos como ética, privacidade e bem-estar sejam priorizados à medida que nosso relacionamento com a tecnologia cresce.
Eles sugerem o uso da Avaliação de Impacto Ambiental, que avalia os prováveis impactos ambientais de um projeto ou desenvolvimento proposto, como um modelo. A avaliação consideraria os impactos socioeconômicos, culturais e de saúde humana inter-relacionados de uma IA e tecnologia.
A estrutura proposta, conhecida como Avaliação de Impacto Humano para Tecnologia (HIAT), seria projetada para prever e avaliar o impacto que as novas tecnologias digitais têm na sociedade e no bem-estar individual. Eles argumentam que isso deve se concentrar em considerações éticas, como privacidade individual, bem-estar e autonomia.
A avaliação também deve considerar quais partes são responsáveis pelo gerenciamento de dados e manutenção de padrões éticos, bem como quem é responsável quando as coisas dão errado, dizem os pesquisadores.
O professor Calvo, da Escola Dyson de Engenharia de Design da Imperial, disse: "Estamos enfrentando uma quarta revolução industrial através do rápido desenvolvimento de IA e tecnologia - mas, à medida que nosso relacionamento com a IA cresce, seu potencial também pode atrapalhar nossas vidas. por exemplo, evidências de que a IA é usada por humanos para manipular emoções, atenção e comportamentos de voto, bem como decisões legais, educacionais e de emprego.
"Agora é a hora de montar uma estrutura para garantir que nosso relacionamento com a IA continue positivo."
Enigmas éticos
Uma estrutura HIAT ajudaria as indústrias emergentes a lidar com os enigmas éticos que andam de mãos dadas com o uso da IA e armazenam grandes quantidades de dados.
Segundo o comentário, as perguntas que orientações orientadas internacionalmente poderiam ajudar a responder incluem:
Alguns assistentes de IA podem ligar para restaurantes em nome de uma pessoa e usar discurso humano realista para fazer reservas. Nesses casos, que obrigações devem existir para conscientizar o ser humano que atende o telefone que o chamador é uma máquina e não um ser humano?
Que consentimento deve ser obtido para salvar os dados coletados dessas conversas?
Alguns motoristas colocam caixas pretas em seus carros que transmitem informações às companhias de seguros sobre a maneira como dirigem. Esta informação é usada para calcular os prêmios de seguro. Nesses casos, como podemos impedir que os dados pessoais coletados e processados pela AI (para onde você vai e quando) sejam vendidos a terceiros?
Alguns serviços policiais usam o Body Worn Video (BWV) enquanto estão em serviço para gravar vídeo e áudio que mais tarde poderiam ser usados durante as investigações. Também houve testes recentes do software de reconhecimento facial - mas quem tem acesso aos dados coletados nesses casos? Os regulamentos são robustos o suficiente para proteger a privacidade do público?
O professor Calvo acrescentou: "Embora muitas vezes nos beneficiemos do progresso tecnológico, também podemos sofrer custos éticos, psicológicos e sociais.
"As avaliações de impacto são uma ferramenta importante para incorporar certos valores e foram usadas com sucesso em muitos setores, incluindo mineração, agricultura, engenharia civil e engenharia industrial.
"Outros setores também, como produtos farmacêuticos, estão acostumados a inovar em ambientes reguladores fortes, e haveria pouca confiança em seus produtos sem essa estrutura.
"À medida que a IA amadurece, precisamos de estruturas como o HIAT para dar aos cidadãos a confiança de que essa nova e poderosa tecnologia será amplamente benéfica para todos".
Mais informações: Rafael A. Calvo et al. Avanço da avaliação de impacto para sistemas inteligentes, Nature Machine Intelligence (2020). DOI: 10.1038 / s42256-020-0151-z
Nenhum comentário:
Postar um comentário