À medida que a IA se torna mais poderosa e difundida, as preocupações sobre seu impacto na sociedade continuam a crescer. Nos últimos meses, vimos avanços incríveis porquê o GPT-4, a novidade versão do padrão de linguagem ChatGPT da Open-AI, capaz de aprender tão rapidamente e responder com muitas respostas de qualidade que podem ser úteis de várias maneiras. Mas, ao mesmo tempo, levantou muitas preocupações sobre o horizonte de nossa cultura.
Na semana passada, uma “epístola ensejo” assinada pelo CEO da Tesla, Elon Musk, pelo cofundador da Apple, Steve Wozniak, muito porquê por representantes de áreas tão diversas quanto robótica, aprendizagem de máquina e ciência da computação, pedia uma pausa de 6 meses em “experimentos gigantes com AI”, afirmando que isso representa um risco para a humanidade.
Desde logo, acompanho as opiniões de alguns especialistas e convido você a se juntar a mim na reflexão sobre esse cenário.
Epístola ensejo
A epístola ensejo “Suspend Giant AI Experiments: An Open Letter”, que já reuniu quase 6.000 assinaturas, pede urgentemente aos laboratórios de IA que suspendam alguns projetos. “Pedimos a todos os laboratórios de lucidez sintético que suspendam imediatamente o treinamento em sistemas de lucidez sintético mais poderosos que o GPT-4 por pelo menos 6 meses.diz a legenda.
ele avisa“Os laboratórios de IA estão em uma corrida incontrolável para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.”
E também prevê um horizonte “apocalíptico”: “Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e mentiras? Devemos automatizar todos os trabalhos, incluindo os de realização? Devemos desenvolver mentes não-humanas que podem eventualmente nos superar em número, ser mais astutas, tornar-se obsoletas e nos substituir? Devemos aventurar perder o controle de nossa cultura?”
Qual é o “peso” real desta epístola?
A princípio é fácil simpatizar com a pretexto, mas vamos pensar em todos os contextos globais envolvidos.
Embora a epístola tenha sido aprovada por uma longa lista dos principais órgãos de tecnologia, incluindo, por exemplo, Google e engenheiros da Meta, ela causou considerável controvérsia com alguns assinantes representativos inconsistentes com suas práticas em relação às restrições de segurança associadas a suas tecnologias, porquê Elon Musk. O próprio Musk demitiu sua equipe de Ethical AI no ano pretérito, conforme relatado por Wired, Futurism e muitos outros sites de notícias da estação.
Vale a pena notar que Musk, que cofundou a Open-AI e deixou a empresa em 2018, repetidamente os atacou no Twitter com duras críticas às conquistas do ChatGPT.
Sam Altman, cofundador da Open-AI, em uma conversa com o podcaster Lex Friedman, argumenta que as preocupações com a experimentação de AGI são legítimas e reconhece que riscos porquê desinformação são reais.
Ou por outra, em entrevista ao WSJ, Altman disse que a empresa há muito se preocupa com a segurança de sua tecnologia e que passou mais de 6 meses testando a instrumento antes de lançá-la.
Quais são seus efeitos práticos?
Andrew Ng, fundador e CEO da Landing AI, fundador da DeepLearning.AI e sócio-gerente universal do AI Fund, fala no Linkedin “O apelo por uma moratória de 6 meses no progressão da IA além do GPT-4 é uma péssima teoria. Vejo muitas novas aplicações em ensino, saúde, alimento… que vão ajudar muita gente. Melhorar o GPT-4 ajudará. Vamos lastrar o enorme valor que a IA cria com os riscos reais.”
Ele também disse “Não há porquê impor uma moratória e impedir que todas as equipes expandam a graduação do LLM, a menos que o governo intervenha. Os governos que suspendem novas tecnologias que não entendem é anticompetitivo, estabelece um precedente terrível e é uma política de inovação terrível. ”
Porquê Ng, muitos outros tecnólogos também discordam da mensagem principal da epístola, pedindo a suspensão dos experimentos. Na opinião deles, dessa forma poderíamos prejudicar grandes avanços da ciência e da saúde, porquê a invenção do cancro de peito, conforme publicado no NY Times no mês pretérito.
Moral e regulamentação da IA: uma premência real
Embora haja uma verdadeira corrida entre os gigantes para colocar no mercado soluções LLM cada vez mais inteligentes, o indumento é que pouco se avançou no sentido de regulamentação e outras medidas de prevenção que precisam ser tomadas “para ontem”. Se você pensar muito, nem precisaria se concentrar em eventos “apocalípticos”, em eventos de grande duração, porquê os mencionados na epístola, para confirmar a urgência. Chega dos atuais e fatídicos problemas gerados pela “desinformação”.
Nesse sentido, vimos recentemente porquê a IA pode fabricar “verdades” com montagens de imagens perfeitas, porquê a imagem viral do Papa em um casaco puffer que dominou a Internet nos últimos dias, entre muitos outros vídeos “falsos” produções. usando as vozes e rostos de celebridades.
Nesse sentido, os laboratórios de lucidez sintético, incluindo o Open-AI, estão trabalhando para facilitar a identificação de conteúdos (textos, imagens, vídeos etc.) marcas d’chuva.
Desfecho
Da mesma forma que as políticas de privacidade implementadas nos sites que navegamos nos dão o recta de escolha (se concordamos em compartilhar nossas informações ou não), continuo acreditando que é provável pensar em um horizonte em que a lucidez sintético funcione em forma segura de gerar novas conquistas para nossa sociedade.
Quer se manter atualizado com as melhores práticas de marketing? Eu recomendo você inscreva-se para fustigar, um boletim informativo interativo da Rock Content. Lá você encontra todas as tendências que importam no marketing do dedo. Vejo você lá!