De um lado, Sam Altman defende a regulamentação da IA e expõe alguns receios em relação à tecnologia, como a produção de fake news durante as eleições americanas. De outro, estudiosos da tecnologia desconfiam dos interesses do pai do ChatGPT e entendem que pequenas empresas terão dificuldades para entrar no mercado com a regulamentação.
Sam Altman, CEO da OpenAI, foi ao congresso americano para apoiar a regulamentação da IA. O executivo da empresa que criou o chat GPT defendeu que estabelecer limites para a IA é crucial para a indústria e que licenças deveriam ser criadas para companhias que se propuserem a lançar novos modelos.
Altman estaria preocupado com a perigosa potência que a IA pode ter sem leis para regulamentação ou estaria criando barreiras para a entrada de novos players no mercado de LLM?
Segundo pesquisadores da área, como o professor Mark Riedl, a segunda opção é a correta - e não somente para a OpenAI, mas também para outras grandes empresas que já investem na área, como o Google.
Se você perdeu o testemunho do pai do ChatGPT, não se preocupe. Você pode ver o vídeo de mais de 2 horas abaixo. Mas trouxemos os destaques de Sam Altman no congresso americano, as preocupações de quem não concorda com a regulamentação e ainda alguns casos polêmicos de IA pelo mundo.
O que Sam Altman disse no congresso
O pano de fundo das falas do executivo foi, justamente, a necessidade da regulamentação do uso de IA. O que ele defende é que o governo americano estabeleça alguns requisitos para que as empresas explorem IA seguindo determinados padrões de segurança.
Eleições americanas
Uma das grandes preocupações apontadas por Altman são as eleições americanas que se aproximam e como a IA poderia interferir no resultado, sendo uma ferramenta que pode ser utilizada para espalhar fake news, por exemplo.
Nessa mesma sessão do congresso, o senador Richard Blumenthal compartilhou um áudio que imitava sua voz, feito via IA e tendo como base discursos reais que o político já fez. Diante disso, ele argumentou que não há como as IAs continuarem se desenvolvendo sem que haja a devida regulamentação.
Alguns empregos vão sumir, outros vão surgir
Um segundo ponto de atenção trazido pelo CEO da OpenAI é o desaparecimento de alguns cargos de trabalho, que serão substituídos pela tecnologia. Em contrapartida, Altman frisou que novos empregos devem surgir.
Um ponto importante trazido por Sam Altman é que indústria e governo vão precisar estabelecer boas parcerias para lidar com a situação e que é papel do governo entender como contornar os impactos que serão sentidos no mercado de trabalho.
Isto é fato: tarefas extremamente operacionais já vêm sendo substituídas por softwares e aplicativos, de modo que o olhar humano precisa ser mais analítico. Quer ver um exemplo muito simples? Mercados, postos de parada na estrada e padarias já oferecem a possibilidade de o cliente realizar o pagamento da conta de modo autônomo, em um totem.
De certo, algumas posições de operadores de caixa foram eliminadas. Da mesma forma, a mão de obra especializada na manutenção desses aparelhos surgiu, bem como foi necessário aumentar o time de vendas das máquinas de cartão embutidas nos totens.
Músicos e criadores de conteúdo
Levando em consideração a gravação falsa apresentada pelo senador Richard Blumenthal, outra preocupação é o que pode ser feito com a voz de artistas, as músicas e o conteúdo de criadores de do meio digital: eles receberão direitos autorais? Eles poderão proibir o uso de suas vozes como input nas ferramentas? Eles terão algum controle sobre o uso de suas criações?
De acordo com Sam Altman, isso deveria acontecer: ele afirmou que concorda que os proprietários dos conteúdos devem ser beneficiados e que deve haver uma maneira de impedir o uso de seus conteúdos, caso essas pessoas queiram.
O ponto para todas as considerações é o como viabilizar a regulamentação. Isso ainda não está explícito e o que se tem é um caminho aberto para a discussão legal.
O outro lado da moeda da regulamentação das IAs
Do outro lado da moeda, existem argumentos que ponderam que grandes empresas que estão desenvolvendo LLM, IAs e ferramentas que se valem dessas tecnologias seriam as maiores beneficiadas com a regulamentação.
Isso porque as regras de segurança e todas as exigências que podem ser feitas seriam barreiras para pequenas empresas, pesquisadores independentes e até para a geração de códigos-fonte abertos. Essa parcela do mercado não teria recursos para atender às exigências - legais, financeiras, de pessoas, de estrutura.
O professor Mark Riedl ainda chama a atenção para que não se desenvolva uma crença de que somente as grandes empresas de IA têm o conhecimento necessário para o estabelecimento de leis acerca da tecnologia. Ele ainda lembra que as empresas não deveriam escolher pelo que são legalmente responsáveis e alerta: as preocupações empresariais não são as mesmas da população.
Nesse contexto, também podemos pensar no quanto esse tipo de tecnologia ficaria centralizada na mão de poucas e poderosas empresas, como OpenAI, Google e Microsoft, dependendo de como as leis de regulamentação forem conduzidas.
Nesse debate, você joga suas fichas em qual lado da moeda?
Casos polêmicos de IA pelo mundo
Não é de hoje que as polêmicas envolvendo IA circulam pelo mundo. Para refrescar a memória, separei três casos que geraram um tremendo buzz.
Você se lembra deles?
IA consciente e engenheiro demitido
Um caso recente e bastante emblemático foi a demissão do engenheiro Blake Lemoine do Google. Na época, ele revelou que uma das linguagens aplicadas para conversas via chatbot fazia interações como uma pessoa em sua plena consciência.
O profissional ainda disse que se ele não soubesse que estava conversando com uma IA, ele acharia que o diálogo era com uma criança que sabia alguma coisa sobre física. Na época, esse recurso ainda não estava liberado para usuários - hoje, já está e se chama LaMDA.
A preocupação de Lemoine, segundo ele mesmo, era a falta de planejamento para a tecnologia.
O Google se posicionou dizendo que as alegações do engenheiro eram infundadas e que ele tinha violado as políticas da empresa e de segurança de dados.
Robôs vão dominar o mundo
Em 2016, David Hanson, fundador da Hanson Robotics, apresentou a famosa robô Sophia em uma feira de tecnologia no Texas. Sophia é capaz de reproduzir expressões faciais e de interagir em conversas, a partir dos inputs.
Em sua estreia ao mundo, quando questionada por Hanson se ela queria destruir os humanos, ela afirmou que sim. No ano seguinte, em 2017, Sophia ganhou uma companhia: o robô Han. Dessa vez, em uma conferência tecnológica que aconteceu em Hong Kong, Han disse à Sophia que seu foco deveria ser dominar o mundo, e não fazer um mundo melhor.
Que dupla, hein?
Alexa do mal
A assistente virtual da Amazon, a famosa Alexa, já gerou desconforto para os usuários. Em 2018, algumas pessoas relataram que o dispositivo soltava gargalhadas malignas sem que o comando tivesse sido dado.
Outro usuário relatou que deu, por algumas vezes, o comando para a Alexa desligar as luzes. Não só ela não o fez, mas parou de respondê-lo e começou a rir.
Na época, a Amazon alegou que trocou o comando “Alexa, rir” para “Alexa, você pode rir”, de modo que as confusões por parte da assistente virtual fossem evitadas.
Criar uma tecnologia ou desenvolver um produto demanda, em primeiro lugar, uma postura ética das pessoas que o idealizam. Separei um artigo que vai te explicar como criar produtos éticos. Afinal, em um mundo cheio de disputas, é preciso entender, antes de tudo, as premissas básicas.