30/03/2023

Sinal de alerta para a Inteligência Artificial

 

  


ChatGPT = SkyNet?

Se os grandes nomes mundiais das tecnologias estão preocupados com o desenvolvimento da Inteligência Artificial e a querem suspender para criar protocolos de segurança é porque existem riscos reais da coisa fugir do controle.

Elon Musk, o homem mais rico do mundo, costuma chamar a atenção da mídia com seus projetos que beiram a ficção científica, como a colonização de Marte. Por isso, o bilionário não pode ser tachado de inimigo do desenvolvimento científico e tecnológico, e sua adesão à carta aberta lançada hoje (29) pelo grupo Future of Life Institute ganha ainda mais peso.

O instituto sem fins lucrativos veio a público, nesta quarta-feira, pedir a suspensão imediata do desenvolvimento e treinamento de inteligências artificiais (IAs), cujas habilidades possam competir com as humanas em qualquer área.

Segundo o grupo, composto por empresários, acadêmicos e pesquisadores, entre outros, o desenvolvimento de IAs está “fora de controle” e pode pôr em risco a própria sobrevivência da humanidade.

ChatGPT: Até seus criadores admitem que é preciso supervisionar Inteligência Artificial

A carta aberta conclama laboratórios de IAs a pausarem seus trabalhos por, pelo menos, seis meses, para que se juntem a um grande esforço para estabelecer rigorosos protocolos de segurança, supervisão e rastreamento de IAs com habilidades quase humanas, como a nova versão do ChatGPT – o ChatGPT-4, criado pela startup OpenAI.

“Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema”, afirma o grupo.

Além de Musk, outros peso-pesados do mundo da tecnologia também aderiram ao apelo, como Steve Wozniak, cofundador da Apple. A carta-aberta permite a adesão de qualquer pessoal ao abaixo-assinado que a acompanha. Devido à grande demanda, porém, as assinaturas foram pausadas.

Veja a íntegra da carta subscrita por Musk, Wozniak e outros especialistas, pedindo a suspensão do desenvolvimento de Inteligências Artificiais (IAs).

Fonte:

https://www.moneytimes.com.br/chatgpt-e-vilao-veja-a-integra-da-carta-em-que-musk-wozniak-e-mais-de-1-mil-pedem-pausa-nas-pesquisas-de-ia/

 
 Transcrição da carta aberta:

“Sistemas de IA com inteligência competitiva com a humana pode trazer profundos riscos à sociedade e à humanidade, como mostrado por extensa pesquisa e reconhecido por importantes laboratórios de IA. Como se afirma no amplamente apoiado Asilomar AI Principles, uma IA avançada poderia representar uma profunda mudança na história da vida na Terra, e deveria ser planejada e gerida com os correspondentes cuidados e recurso. Infelizmente, este nível de planejamento e gestão não está ocorrendo, mesmo que tenhamos visto, nos últimos meses, ao laboratórios de IA presos a uma corrida fora de controle para desenvolver e empregar cérebros digitais ainda mais poderosos que ninguém – nem mesmo seus criadores – pode compreender, predizer ou controlar razoavelmente.

Os sistemas de IA contemporâneos estão, agora, se tornando competitivos com os humanos em tarefas em geral, e devemos nos perguntar: deveríamos permitir que máquinas inundem nossos canais de informação com propaganda e inverdades? Deveríamos automatizar todos os trabalhos, inclusive os mais gratificantes? Deveríamos desenvolver mentes não-humanas que poderiam, eventualmente, nos superar em número e em inteligência, nos tornando obsoletos e nos substituindo? Deveríamos nos arriscar a perder o controle de nossa civilização? Essas decisões não devem ser delegadas para líderes do setor de tecnologia não-eleitos. Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema. A recente declaração da OpenAI sobre a inteligência artificial em geral afirma que “em certo ponto, pode ser importante contar com revisão independente, antes de iniciar o treinamento de futuros sistemas, e para os esforços mais avançados para estabelecer um limite para a taxa de crescimento da computação utilizada para criar novos modelos.” Nós concordamos. E estamos neste ponto agora.

Portanto, conclamamos todos os laboratórios de IA a suspender imediatamente por, pelo menos, 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4. Esta pausa deveria ser pública e verificável, e incluir todos os atores-chave. Se tal pausa não puder ser implementada rapidamente, os governos deveriam vir a campo e instituir uma moratória.

Os laboratórios de IA e especialistas independentes deveriam usar essa pauta para, em conjunto, desenvolver e implementar um leque de protocolos de segurança compartilhados para o design e o desenvolvimento de IAs avançadas, que sejam rigorosamente auditados e supervisionados por experts externos e independentes. Esses protocolos deveriam assegurar que os sistemas que aderirem a eles são seguros, acima de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento de IAs em geral, mas simplesmente um passo atrás de uma perigosa corrida rumo a cada vez maiores e imprevisíveis “modelos caixas-pretas” com capacidades emergentes.

A pesquisa e o desenvolvimento de IA deveria ser reorientada para tornar os atuais e poderosos sistemas, que representam seu estado-da-arte, mais acurados, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar em conjunto com os formuladores de políticas públicas para acelerar dramaticamente o desenvolvimento de sistemas robustos de governança das IAs. Isso deveria, no mínimo, incluir: novas e capacitadas autoridades regulatórias dedicadas à IA; monitoramento e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de proveniência e marca-d’água para auxiliar a distinguir o real do sintético e rastrear fissuras no modelo; um robusto ecossistema de auditoria e certificação; responsabilização por danos causados por IA; robustos fundos públicos para a pesquisa técnica de segurança de IA; e institutos bem financiados para lidar com as dramáticas disrupturas econômicas e políticas (especialmente à democracia) que a IA causará.

A humanidade pode gozar de um futuro florescente com a IA. Ao sermos bem-sucedidos em criar poderosos sistemas de IA, podemos agora usufruir de um “verão da IA”, no qual colhemos os frutos, projetamos os sistemas para o claro benefício de todos, e damos à sociedade uma chance de se adaptar. A sociedade já suspendeu outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer o mesmo aqui. Vamos gozar de um longo verão da IA, e não corrermos despreparados para um outono decadente.”

______________________________

Publicações de Inteligência Artificial irritam!

Esse monte de imagens apenas aguçam gente sem nenhuma índole artística a se sentir o próprio Michelângelo (sem que tenham a ínfima fração do seu talento). O que mais tem é gente descobrindo ser um novo Van Gogh! (pobre Van Gogh, o que essa gente sabe sobre o que esse homem sentiu para fazer suas pinturas?) 

Tenho visto oportunistas vendendo cursos dessa nova tendência. E seus anúncios incluem "não precisa ter habilidade artística; nem Photoshop; nem altos investimentos; fica pronto em instantes..."

Eita coisa banal e imediatista!

O fastfood da criatividade.

Eis a exaltação da mediocridade e a glorificação do patife.

Essa tal de inteligência artificial é um insulto à verdadeira inteligência. Toda produção dessa onda tecnológica depende do que a inteligência humana já fez. É, portanto, um tipo sofisticado de pirataria oportunista que está encantando gente imediatista e rasa.

"Ah, mas essa é a nova tendência mundial, é tecnologia"...

E quem disse que tendências devem ser celebradas?