A imagem mostra um experimento de navegação em labirinto que foi descrito como uma situação de emergência. Os participantes foram informados de que sua tarefa era agir como se estivessem em uma evacuação de emergência e tiveram que encontrar uma saída dentro de 30 segundos para sobreviver. Crédito: Wagner et al.
Pesquisadores da Pennsylvania State University, do MIT e do Instituto de Tecnologia da Geórgia desenvolveram recentemente uma estrutura conceitual para modelar o fenômeno da confiança homem-robô. Sua estrutura, delineada em um artigo publicado na ACM Digital Library , usa representações computacionais inspiradas na teoria dos jogos para representar a confiança, uma noção definida usando a teoria na psicologia social.
A confiança desempenha um papel fundamental nas interações interpessoais, tanto em ambientes profissionais quanto pessoais. Quando uma pessoa confia em outra, pode decidir fazer algo que a coloque em risco considerável, mantendo a crença de que as ações da outra mitigam um pouco esse risco.
Quando se trata de definir confiança , muitos pesquisadores concordam que isso acarreta uma situação em que um indivíduo é vulnerável e essa vulnerabilidade está nas ações, motivações ou comportamentos de outro. Alan R. Wagner, Paul Robinette e Ayanna Howard, os três pesquisadores por trás do estudo recente, queriam criar uma estrutura que pudesse ser usada para modelar a confiança interpessoal entre humanos e robôs.
"Estamos interessados em desenvolver robôs que saibam quando confiar nos seres humanos, entender quais situações exigem confiança e atrair a quantidade certa de confiança dos seres humanos", explicou Robinette. "Inicialmente, fomos motivados por pesquisas sugerindo que às vezes as pessoas fazem coisas estranhas quando um robô pede, como jogar livros caros e colocar suco de laranja em um vaso. Há também um número crescente de situações em que os seres humanos se colocam em risco nas mãos de um robô (por exemplo, carros autônomos, drones sobrevoando, guardas de segurança de robôs, etc.). Queríamos, portanto, desenvolver uma estrutura que permitisse que os robôs entendessem as relações de confiança com os humanos. "
A estrutura conceitual desenvolvida por Wagner e seus colegas gerou várias hipóteses testáveis relacionadas à confiança homem-robô. Em seu estudo, os pesquisadores examinaram essas hipóteses geradas e realizaram uma série de experimentos, reunindo evidências que apoiavam sua estrutura e conflitavam com ela.
"A estrutura de confiança começou na pesquisa de Alan, que definiu a confiança de uma maneira que os computadores e, portanto, os robôs, podem utilizar", disse Robinette.
Em seu trabalho anterior, Wagner definiu a confiança situacional como "uma crença, mantida pelo fideicomissário, de que o administrador atuará de uma maneira que mitigue o risco do fiduciário em uma situação na qual o fiador colocou seus resultados em risco". Sua definição se concentra principalmente no risco envolvido em uma dada situação, também destacando a crença de que uma pessoa / robô atuará para reduzir o risco para a outra pessoa / robô.
"Nossa estrutura fornece critérios para o que constitui uma situação de confiança e dá várias categorias de situações que não exigem confiança, por exemplo, onde não há risco para o fiduciário ou onde o risco não pode ser mitigado por uma razão ou outra", disse Robinette. "Com este framework, um robô pode avaliar por si mesmo se a situação em que se encontra requer confiança ou não, e então agir apropriadamente."
Os pesquisadores testaram as hipóteses geradas por sua estrutura em uma série de testes e experimentos. Por exemplo, em um experimento, eles apresentaram a um grupo de participantes humanos cenários que envolviam confiar ou não confiar em alguém, e então perguntaram a eles quais dessas duas opções escolheriam. Os participantes concordaram com as condições de confiança geradas por sua estrutura, em um grau muito alto.
Os pesquisadores realizaram vários outros experimentos que avaliaram a precisão das hipóteses geradas por sua estrutura conceitual . Alguns deles reuniram evidências que apoiavam essas hipóteses, enquanto alguns produziam resultados conflitantes.
"Eu acho que a descoberta mais significativa deste trabalho é que encontramos evidências de apoio consideráveis para este quadro em estudos com muitos participantes de diversas origens", disse Robinette. "Isso significa que a estrutura de confiança pode ser usada na maioria das situações, permitindo que os robôs entendam melhor por que os seres humanos ao seu redor estão agindo como eles. O robô pode até mesmo usar essa estrutura para conduzir os seres humanos a situações menos arriscadas, por exemplo." reconhecendo que uma pessoa está confiando demais em um robô, talvez para fazer algo para o qual não foi programado, e informando a pessoa sobre seu erro ".
O quadro concebido por Wagner e seus colegas poderia ser aplicado a uma variedade de situações que envolvem a confiança entre humanos e robôs. No entanto, em alguns casos, as hipóteses do framework não eram suficientemente precisas, por exemplo, quando se pedia às pessoas que confiassem em um robô no que parecia ser uma situação de emergência.
Esses resultados são valiosos, no entanto, como eles lançam luz sobre áreas específicas em que as pessoas acham mais difícil confiar em robôs. Pesquisas futuras poderiam dar uma olhada mais de perto em por que os participantes fizeram essas escolhas e o que os impediu de confiar em robôs, ao mesmo tempo em que exploram maneiras pelas quais os engenheiros de robótica podem melhorar a segurança em torno dos robôs.
"Alan e Ayanna têm trabalhado para ampliar essa pesquisa no domínio da robótica da área de saúde", disse Robinette. "Acredito que Alan também tenha um projeto para investigar os robôs de evacuação de emergência e sua relação com as pessoas em mais detalhes. Recentemente trabalhei em equipe humana e planejei aplicar essa estrutura de confiança ao relacionamento entre humanos e robôs que eles trabalhar com."
Nenhum comentário:
Postar um comentário