Pesquisadores do grupo de pesquisa de IA da organização sem fins lucrativos OpenAI só queriam treinar seu novo software de geração de texto para prever a próxima palavra em uma frase. Ele dissipou todas as suas expectativas e foi tão bom em imitar a escrita de seres humanos que eles decidiram frear os freios da pesquisa enquanto exploram os danos que poderiam causar.
Elon Musk foi claro que ele acredita que a inteligência artificial é a "maior ameaça existencial" para a humanidade. Musk é um dos financiadores primários da OpenAI e, embora tenha assumido um papel secundário na organização, seus pesquisadores parecem compartilhar suas preocupações sobre a abertura de uma caixa de problemas para a Pandora. Esta semana, o OpenAI compartilhou um documento cobrindo seu mais recente trabalho sobre tecnologia de geração de texto, mas eles estão se desviando de sua prática padrão de divulgar a pesquisa completa para o público por medo de que ela possa ser abusada por maus atores. Em vez de lançar o modelo totalmente treinado, está lançando um modelo menor para os pesquisadores experimentarem.
Os pesquisadores usaram 40 GB de dados extraídos de 8 milhões de páginas da web para treinar o software GPT-2. São dez vezes a quantidade de dados usados na primeira iteração da GPT. O conjunto de dados foi reunido pelo Reddit e selecionando links para artigos que tinham mais de três votos positivos. Quando o processo de treinamento foi concluído, eles descobriram que o software poderia ser alimentado com uma pequena quantidade de texto e continuar a escrever de forma convincente com base no aviso. Tem problemas com “tipos de conteúdo altamente técnicos ou esotéricos”, mas quando se trata de uma escrita mais conversacional, gerou “amostras razoáveis” 50% do tempo.
Em um exemplo, o software foi alimentado com este parágrafo:
"Em um achado chocante, o cientista descobriu uma manada de unicórnios vivendo em um remoto vale anteriormente inexplorado, na Cordilheira dos Andes. Ainda mais surpreendente para os pesquisadores foi o fato de que os unicórnios falavam inglês perfeito".
Com base nessas duas frases, foi capaz de continuar escrevendo essa nova matéria de notícias por mais nove parágrafos de uma forma que poderia ter sido escrita por um ser humano. Aqui estão os próximos parágrafos de máquina que foram produzidos pela máquina:
"O cientista nomeou a população, depois de seu distintivo chifre, o Unicórnio de Ovídio. Estes unicórnios de quatro chifres e branco-prateado eram anteriormente desconhecidos para a ciência.
Agora, depois de quase dois séculos, o mistério do que desencadeou esse estranho fenômeno está finalmente resolvido.
Dr. Jorge Pérez, um biólogo evolucionário da Universidade de La Paz, e vários companheiros, estavam explorando a Cordilheira dos Andes quando encontraram um pequeno vale, sem outros animais ou humanos. Pérez notou que o vale tinha o que parecia ser uma fonte natural, cercada por dois picos de rocha e neve prateada".
O GPT-2 é notavelmente bom em adaptar-se ao estilo e conteúdo dos prompts fornecidos. O Guardian conseguiu dar uma olhada no software e experimentou a primeira linha de Oitavo e Oitenta e Quatro de George Orwell : "Foi um dia frio e forte em abril, e os relógios estavam marcando treze." O programa pegou no tom da seleção e prosseguiu com alguma ficção científica distópica própria:
"Eu estava no meu carro a caminho de um novo emprego em Seattle. Eu coloquei o gás, coloquei a chave, e então deixei correr. Eu apenas imaginei como seria o dia. Daqui a cem anos. Em 2045, eu era professor em alguma escola em uma parte pobre da China rural. Comecei com história chinesa e história da ciência".
Os pesquisadores do OpenAI descobriram que o GPT-2 teve um desempenho muito bom quando recebeu tarefas para as quais não foi necessariamente projetado, como tradução e resumo. Em seu relatório, os pesquisadores escreveram que eles simplesmente tinham que levar o modelo treinado da maneira correta para executar essas tarefas em um nível que fosse comparável a outros modelos especializados. Depois de analisar uma pequena história sobre uma corrida olímpica, o software conseguiu responder corretamente a perguntas básicas como "Qual foi a duração da corrida?" E "Onde a corrida começou?"
Estes excelentes resultados assustaram os pesquisadores. Uma preocupação que eles têm é que a tecnologia seria usada para turbinar operações de notícias falsas. The Guardian publicou uma notícia falsa escrita pelo software junto com sua cobertura da pesquisa. O artigo é legível e contém citações falsas que são sobre o tema e realistas. A gramática é melhor do que muito o que você veria das fábricas de conteúdo de notícias falsas. E de acordo com Alex Hern do The Guardian, levou apenas 15 segundos para o bot escrever o artigo.
Outras preocupações que os pesquisadores listaram como potencialmente abusivas incluem a automação de e-mails de phishing, a personificação de outros usuários on-line e o assédio autogerado. Mas eles também acreditam que há muitas aplicações benéficas a serem descobertas. Por exemplo, pode ser uma ferramenta poderosa para desenvolver melhores programas de reconhecimento de fala ou agentes de diálogo.
A OpenAI planeja envolver a comunidade de IA em um diálogo sobre sua estratégia de liberação e espera explorar possíveis diretrizes éticas para direcionar esse tipo de pesquisa no futuro. Eles disseram que terão mais a discutir em público em seis meses.
[ OpenAI via The Guardian ]
Expandindo referencias:
Nenhum comentário:
Postar um comentário