Futuro próximo
Nenhum Resultado
Veja todos Resultado
7 junho 2023
  • CFL
  • Tecnologia
  • Saúde
  • Meio Ambiente
  • Energia
  • Transporte
  • Espaço
  • AI
  • Conceitos
  • H+
Compreender, antecipar, melhorar o futuro.
CES2023 / Coronavírus / Rússia-Ucrânia
Futuro próximo
  • CFL
  • Tecnologia
  • Saúde
  • Meio Ambiente
  • Energia
  • Transporte
  • Espaço
  • AI
  • Conceitos
  • H+

Compreender, antecipar, melhorar o futuro.

Nenhum Resultado
Veja todos Resultado
Tecnologia

Pesquisadores de Seattle dizem que construíram uma IA com moralidade

Equipar uma IA com sua própria moralidade para ajudá-la a fazer as escolhas certas: um laboratório de Seattle diz que foi bem-sucedido. É realmente assim?

Novembro 29 2021
Gianluca RiccioGianluca Riccio
⚪ 4 minutos
Partilhar96pino24Tweet60ENVIARPartilhar17PartilharPartilhar12
Moralidade

Yejin Choi no Allen Institute for AI em Seattle em 11 de novembro. Choi liderou o desenvolvimento do Delphi.

LEIA ISSO EM:

O debate sobre inteligência artificial tem um novo ponto de partida. Durante décadas, os humanos se perguntaram se a informação que está sendo programada em uma máquina é conhecimento verdadeiro ou simplesmente cálculo. Hoje, pesquisadores americanos afirmam que sua nova inteligência artificial tem uma moralidade própria.

Mais perguntas do que respostas

Muitas questões surgiram desde o advento da inteligência artificial (IA), mesmo em suas encarnações mais primitivas. Um candidato é: a IA pode realmente raciocinar e tomar decisões éticas em um sentido abstrato, em vez de inferida a partir de codificação e computação?

Para ser mais preciso: se for dito a uma IA que prejudicar intencionalmente um ser vivo sem provocação é “ruim” e não deve ser feito, a IA entenderá a ideia de “ruim”, entenderá por que está errado fazer isso? Ou ele vai se abster de ação sem saber por quê? Em outras palavras, terá sua própria moralidade?

De acordo com uma equipe de pesquisadores de um laboratório de Seattle chamado Allen Institute for AI, é possível. E mais: eles mesmos dizem que desenvolveram uma máquina de inteligência artificial com senso moral, e a chamaram de Delphi, em homenagem ao (quase) oráculo homônimo. Desde o mês passado pode ser visitado o site Delphi e pedir uma "resposta moral".

O artigo continua após os links relacionados

ChatGPT, os 3 primeiros setores que serão totalmente interrompidos pela IA

O futuro é um fato: os chatbots transformarão o marketing de relacionamento

Um oráculo cibernético

Delphi já recebeu mais de 3 milhões de acessos. Joseph Austerweil, psicólogo da Universidade de Wisconsin-Madison, testou a "moralidade" de Delphi com alguns cenários simples. Quando perguntado a Delphi se ele deveria ter matado uma pessoa para salvar outra, Delphi disse que não deveria. Quando ele perguntou se não havia problema em matar uma pessoa para salvar mais 100, ele disse que sim. E às vezes ele até dava respostas "imorais".

“É um primeiro passo para tornar os sistemas de IA mais eticamente informados, socialmente conscientes e culturalmente inclusivos”, diz ele. Yejin Choi, pesquisador do Allen Institute e professor de ciência da computação da Universidade de Washington que liderou o projeto. Um dia, diz ele, essa “moralidade” poderá equipar sistemas de inteligência artificial, assistentes virtuais, veículos autônomos para ajudá-los a fazer a escolha certa.

O que é Delphi realmente? Sua "moralidade" é apenas um reflexo da de seus criadores, ou tem seu próprio senso de certo e errado? Se sim, como ele a desenvolveu? Existem duas teorias que podem nos ajudar a entender melhor.

IA com uma moralidade
Por causa da programação computacional, a inteligência artificial pode dar a impressão de ter seu próprio senso de moralidade, mas é filosoficamente e cientificamente possível? Foto por PopTika / Shutterstock

Isenção de responsabilidade: peço desculpas antecipadamente se alguém acredita que exemplifiquei demais essas teorias, por uma questão de síntese e não para tornar o raciocínio dispersivo. Nesse caso, estou aberto a sugestões.

A forte tese da IA

Existe uma tese chamada "IA forte" que o falecido prof. Daniel N. Robinson, membro da Faculdade de Filosofia da Universidade de Oxford, enunciou muitas vezes. Eu tento resumir aqui.

Imagine, disse o Dr. Robinson, que alguém construa um programa geral para fornecer opinião especializada sobre doenças cardiovasculares, leis constitucionais, acordos comerciais e assim por diante. Se o programador pudesse fazer o programa executar essas tarefas de uma maneira indistinguível de um humano, de acordo com a "tese de IA forte" este programa teria inteligência especializada e algo mais.

O quê?

A forte tese da IA ​​sugere que podem existir processos computacionais não especificados que constituam intencionalidade. Intencionalidade significa tomar uma decisão deliberada e consciente, que por sua vez envolve raciocínio e senso de valores. (O quanto Westworld me lembra de tudo isso). No entanto, isso é realmente possível?

Teorema de Gödel

O teorema da incompletude, conhecido como Teorema de Gödel, afirma que qualquer sistema formal é incompleto, pois dependerá de um teorema ou axioma, cuja validade deve ser estabelecida fora do próprio sistema.

Kurt Gödel desenvolveu este teorema com uma exceção: a inteligência humana. Em outras palavras, Gödel acreditava que deve haver algo na racionalidade e inteligência humana que não pode ser capturado por um sistema formal e transformado em código. A inteligência humana, em suma, não pode ser imitada ou modelada em uma base computacional.

Quem esta certo

Se ele está certo Godel, não é uma questão de tempo: uma IA NUNCA terá sua própria moralidade. Nunca terá uma inteligência igual à dos humanos, pelo simples fato de que a inteligência humana não é uma inteligência baseada em cálculo.

Se a tese da IA ​​forte e da equipe de Seattle estiver certa, no entanto, talvez estejamos nas vésperas (perto ou longe) de uma revolução extraordinária no campo da inteligência artificial.

Mais cedo ou mais tarde, poderemos responder à pergunta de Philip K. Dick, que deu origem a “Blade Runner”: Os andróides sonham com ovelhas elétricas?

Tags: inteligência artificial


Bate-papo GPT Megafácil!

Guia concreto para quem se aproxima desta ferramenta de inteligência artificial, também pensada para o mundo escolar: muitos exemplos de aplicações, indicações de utilização e instruções prontas a usar para treinar e interrogar o Chat GPT.

Para submeter artigos, divulgar os resultados de uma pesquisa ou descobertas científicas escreva para a equipe editorial

Os mais lidos da semana

  • Oculus visita VR na casa de Anne Frank

    281 ações
    Partilhar 112 Tweet 70
  • Sucralose, a amarga verdade: o adoçante danifica o DNA

    6 ações
    Partilhar 2 Tweet 1
  • PAINT, a caneta regenerativa que cura feridas

    4 ações
    Partilhar 2 Tweet 1
  • Espaço solar, energia enviada à Terra com ondas de rádio: eles conseguiram

    4 ações
    Partilhar 1 Tweet 1
  • Da Holanda, eles alertam: os hackers estão de olho nos painéis solares

    3 ações
    Partilhar 1 Tweet 1

Entre no canal Telegram do Futuroprossimo, clique aqui. Ou siga-nos no Instagram, Facebook, Twitter, Mastodonte e Linkedin.

O amanhã diário.


Futuroprossimo.it traz novidades sobre o futuro da tecnologia, ciência e inovação: se há algo que está para chegar, aqui já chegou. FuturoProssimo faz parte da rede Para a frente, estudos e habilidades para cenários futuros.

FacebookTwitterInstagramTelegramLinkedinMastodontePinterestTikTok
  • Meio Ambiente
  • arquitetura
  • Inteligência artificial
  • Gadgets e Electronicos
  • Conceitos
  • Design
  • Medicina
  • Espaço
  • Robotica
  • Trabalhar
  • Transporte
  • Energia
  • Edição Francesa
  • edição alemã
  • versão japonesa
  • Edição Inglesa
  • edição em português
  • Русское издание
  • Edição espanhola

Boletim informativo Iscriviti alla

  • Os Editores
  • Publicidade no FP
  • Política de Privacidade

© 2022 Futuro próximo - Licença Creative Commons
Este trabalho é distribuído sob licença Creative Commons Atribuição 4.0 Internacional.

Nenhum Resultado
Veja todos Resultado
Compreender, antecipar, melhorar o futuro.
  • CFL
  • Tecnologia
  • Saúde
  • Meio Ambiente
  • Energia
  • Transporte
  • Espaço
  • AI
  • Conceitos
  • H+