Futuro próximo
Nenhum Resultado
Veja todos Resultado
Janeiro 30 2023
  • Início
  • Tecnologia
  • Saúde
  • Meio Ambiente
  • Energia
  • Transporte
  • Espaço
  • AI
  • Conceitos
  • H+
Compreender, antecipar, melhorar o futuro.
CES2023 / Coronavírus / Rússia-Ucrânia
Futuro próximo
  • Início
  • Tecnologia
  • Saúde
  • Meio Ambiente
  • Energia
  • Transporte
  • Espaço
  • AI
  • Conceitos
  • H+

Compreender, antecipar, melhorar o futuro.

Nenhum Resultado
Veja todos Resultado
Companhia, Tecnologia

Seu Deadbot falará por você após sua morte. Você vai permitir?

Um chatbot, ou melhor, um deadbot, irá imitá-lo e conversar com seus parentes e amigos quando você falecer? É por isso que precisamos de regras.

LEIA ISSO EM:

EN CN FR DE JA PT RU ES
Compartilhe78pino18Tweet49ENVIARCompartilhe14CompartilheCompartilhe10
6 junho 2022
Gianluca RiccioGianluca Riccio
⚪ 6 minutos

A inteligência artificial (seja lá o que digam) ainda não engoliu a humanidade, nem se conscientizou. Mas está gradualmente tomando o leme de nossos dias e de nossas regras.

Assistentes virtuais nos espionam em nossas próprias casas. Os algoritmos decidem nosso horizonte de informações, o pessoal a ser contratado e em pouco tempo também o criminoso a ser condenado. Os limites éticos de seu uso? Cada vez mais sutil e confuso. Perigosamente confuso.

Deadbots
Cena de "Volto já", Black Mirror

O caso do Projeto Dezembro

Parece um episódio de Black Mirror, a obra-prima de Charlie Brooker que investiga as "falhas" da tecnologia e os cenários distópicos que elas poderiam gerar. Não é um episódio qualquer: um em especial, transmitido em 2013. Para os fãs da série, chamava-se "Torna da me", "Volto já". No entanto, não é uma ficção, é a realidade.

Há poucos meses atrás (Eu te falei sobre isso aqui) um homem de 33 anos chamado Joshua Barbaau usou um serviço chamado Project December para criar um robô conversacional (um chatbot) que poderia simular conversas com sua falecida namorada Jessica.

O artigo continua após os links relacionados

Suporte ao cliente: estará nas mãos dos chatbots dentro de 5 anos?

'Minha amante AI salvou meu casamento': se o caso é com 'Ela'

Através deste chatbot, Barbeau trocou mensagens de texto amorosas com uma "Jessica" artificial. Na época do artigo, talvez com a cumplicidade do calor de agosto, não me questionei suficientemente no plano ético.

Hoje me pergunto, já que ainda não há norma para regular esses casos: é eticamente permissível ou condenável desenvolver um 'deadbot', o robô conversacional de uma pessoa falecida?

Deadbot: Certo ou errado

Vamos dar um passo para trás primeiro. Projeto Dezembro foi criado por Jason Rohler, um desenvolvedor de videogames, usando GPT-3, um modelo de linguagem para geração de texto desenvolvido pela OpenAI. E violando as diretrizes da Open AI, que proíbem explicitamente o uso do GPT-3 para fins sexuais, amorosos, automutilação ou bullying.

Para Rohrer, por outro lado, OpenAI é moralista e pessoas como Barbeau são "adultas e consentidas": Projeto Dezembro continua operando mas sem usar GPT-3, em plena polêmica com a empresa.

Voltemos ao dilema: certo ou errado? Barbeau e outros que podem ter usado este serviço estão se comportando de forma ética?

(Talvez) a vontade dos que ficam não baste...

Deadbots
958B69BD 9078 4042 A60E 666E36250025

Jessica era uma pessoa real: a vontade do namorado é suficiente para criar um robô que a imita? Mesmo quando morrem, as pessoas não são meras coisas com as quais os outros podem fazer o que quiserem.

Existem crimes específicos, como a difamação de um cadáver, que nos fazem entender o quanto a sociedade considera errado profanar ou não respeitar a memória dos mortos. Temos obrigações morais para com eles, porque quando alguém morre nem todos deixam de existir. Sentimentos, memórias, exemplos permanecem, e é certo protegê-los.

Novamente: desenvolver um deadbot que reproduza a personalidade de alguém requer grandes quantidades de informações pessoais. Incluindo dados de redes sociais, que demonstraram revelar características altamente sensíveis.

Se é antiético usar dados dos vivos sem o consentimento deles, por que deveria ser ético fazê-lo com os mortos? Para isso, também teria sido necessário o consentimento da pessoa "imitada", ou seja, de Jéssica. Mas isso seria suficiente?

... nem a vontade dos que morrem

Deadbots

Os limites do consentimento são sempre uma questão controversa. Para dar um exemplo: há algum tempo o caso do "canibal de Rotenburg" chegou às manchetes (por assim dizer) das notícias. Um sujeito condenado à prisão perpétua, você pode imaginar o porquê, apesar de sua vítima ter concordado em ser comida.

A condenação foi motivada pelo fato de ser antiético consentir com coisas que podem ser prejudiciais a nós mesmos, fisicamente (vender os órgãos vitais) ou abstratamente (alienar os direitos).

Embora os mortos não possam ser feridos ou ofendidos da mesma forma que os vivos, isso não significa que sejam invulneráveis ​​a más ações, nem que essas ações sejam éticas.

Os mortos podem sofrer danos à sua honra, reputação ou dignidade (por exemplo, campanhas de difamação póstuma) e o desrespeito aos mortos também prejudica seus familiares.

Em resumo, mesmo o consentimento de uma pessoa em ser "comida" (metaforicamente) e "cuspida" na forma de um robô conversacional não poderia ser suficiente.

Então, como será?

Entendemos que nem a vontade de quem quer falar com um morto "reconstruído", nem a de quem quer ser "imitado" após a morte pode não ser suficiente. Existem maneiras éticas de fazer uma coisa dessas? Em caso afirmativo, quem seria responsável pelos resultados de um deadbot, especialmente no caso de efeitos prejudiciais?

Imagine o deadbot de Jessica "aprendendo" independentemente a se comportar de uma maneira que diminui a memória do falecido ou prejudica a saúde mental de seu namorado.

B0E490DB CDE9 4223 BE60 5E55A368612E

Deadbot: de quem é a culpa?

Para os especialistas em inteligência artificial, a responsabilidade recai sobre os envolvidos no projeto e desenvolvimento do sistema e, em segundo lugar, entre todos os agentes que interagem com eles. Neste caso os sujeitos envolvidos seriam OpenAI, Jason Rohrer e Joshua Barbeau. O primeiro, OpenAI, proibiu explicitamente o uso de seu sistema para esses fins: vejo poucas falhas. O segundo, Jason Rohrer, projetou o deadbot, violou as diretrizes da OpenAI e lucrou com isso. A maior parte da responsabilidade seria sua. O terceiro, Joshua Barbeau, deve ser considerado co-responsável por quaisquer desvios do deadbot. De qualquer forma, não seria fácil estabelecer isso de tempos em tempos.

Em resumo: o deadbot seria ético? Somente sob certas condições

Se todos os sujeitos envolvidos (pessoa "imitada" pelo deadbot, pessoa que desenvolve o deadbot e pessoa que interage com o deadbot) deram consentimento explícito, detalharam (e restringiram) os usos permitidos tanto quanto possível e assumiram a responsabilidade por qualquer resultados negativos, isso pode ser feito.

São três condições severas, que tornam rígido o processo de criação desses sistemas, mas oferecem sérias garantias

E confirmam o quanto a ética é importante no campo do aprendizado de máquina: precisamos desenvolver regras agora, porque essa tecnologia vai se impor de uma maneira muito rápida, arriscando perturbar nossos valores e nossa sociedade.

Tags: chatbotDeadbotsGpt-3openai

Para submeter artigos, divulgar os resultados de uma pesquisa ou descobertas científicas escreva para a equipe editorial

Mais lidos na semana

  • 'Advogado de IA' para auxiliar cliente em processo: primeira vez no mundo

    1368 ações
    Compartilhe 547 Tweet 342
  • Testei para você o GPTZero, a arma contra a invasão de textos automáticos.

    442 ações
    Compartilhe 176 Tweet 110
  • 27 empregos que desaparecerão em 50 anos

    2836 ações
    Compartilhe 1134 Tweet 709
  • Akio Toyoda tem uma ideia: em vez de carros novos, convertemos os já existentes

    369 ações
    Compartilhe 147 Tweet 92
  • Turbinas eólicas gigantes como arranha-céus, um novo estudo as torna possíveis

    315 ações
    Compartilhe 126 Tweet 79

Entre no canal Telegram do Futuroprossimo, clique aqui. Ou siga-nos no Instagram, Facebook, Twitter, Mastodonte e Linkedin.

O amanhã diário.


Futuroprossimo.it traz novidades sobre o futuro da tecnologia, ciência e inovação: se há algo que está para chegar, aqui já chegou. FuturoProssimo faz parte da rede Para a frente, estudos e habilidades para cenários futuros.

FacebookTwitterInstagramTelegramLinkedinMastodontePinterestTikTok
  • Meio Ambiente
  • arquitetura
  • Inteligência artificial
  • Gadgets e Electronicos
  • Conceitos
  • Design
  • Medicina
  • Espaço
  • Robotica
  • Trabalhar
  • Transporte
  • Energia
  • Edição Francesa
  • edição alemã
  • versão japonesa
  • Edição Inglesa
  • edição em português
  • Русское издание
  • Edição espanhola

Boletim informativo Iscriviti alla

  • Os Editores
  • Publicidade no FP
  • Política de Privacidade

© 2022 Futuro próximo - Licença Creative Commons
Este trabalho é distribuído sob licença Creative Commons Atribuição 4.0 Internacional.

Nenhum Resultado
Veja todos Resultado
Compreender, antecipar, melhorar o futuro.
  • Início
  • Tecnologia
  • Saúde
  • Meio Ambiente
  • Energia
  • Transporte
  • Espaço
  • AI
  • Conceitos
  • H+