jazzy-software - O blog
Sobre inteligência artificial
Há alguns anos o “Blockchain”, hoje a “Inteligência Artificial” é a solução para todos os problemas. Se isso se adapta ao problema ou não.
O entusiasmo em torno do ChatGPT este ano esfriou um pouco depois que seu uso criativo dos fatos se tornou conhecido várias vezes. No entanto, a IA continua na boca de todos como uma nova tecnologia milagrosa, desde chefes de governo e comissões até à Microsoft e à Oracle.
Chegou o Oracle Database 23c: consultas SQL em linguagem natural
IA também para o novo banco de dados 23c da Oracle: Os recursos têm como objetivo tornar os desenvolvedores mais produtivos e os funcionários serem capazes de avaliar eles próprios suas montanhas de dados.
[...]
Isso deve permitir que os desenvolvedores formulem consultas SQL em linguagem natural, que o sistema traduz automaticamente em SQL. O trabalho sobre isso já está muito avançado: de acordo com Andy Mendelsson, Vice-Presidente Executivo de Desenvolvimento de Tecnologias de Servidores de Banco de Dados, a precisão atual dessas consultas SQL geradas automaticamente é de 60 a 70 por cento. “Os especialistas em IA me dizem que 70 por cento é um valor muito bom que dificilmente pode ser aumentado mesmo com melhores dados de treinamento”, é sua avaliação sobre a precisão das consultas em linguagem natural.
A ideia não é tão nova, no entanto. Já em 1985, foi vendido o banco de dados "Q&A" da Symantec, que tinha uma função de consulta em linguagem natural. Isto foi baseado em um vocabulário de 600 palavras e funcionou surpreendentemente bem. O sistema tornou-se obsoleto quando o MS Windows se estabeleceu e os usuários preferiram clicar nas listas de seleção com o mouse em vez de formular consultas e inseri-las com o teclado.
Enquanto o F&A naquela época rodava em um processador 8086 com alguns 100 kilobytes de memória principal e ultrapassava em muito a taxa de acerto de 70% da Oracle, hoje a IA é tudo menos “verde”. A ramificação do ChatGPT para desktop, gpt4all, é executada como requisito mínimo em um computador com pelo menos 6 núcleos e 16 GB de memória. Uma consulta leva vários minutos, durante os quais todos os processadores estão funcionando com carga total. Se você deseja treinar seus próprios dados, 32 GB de memória gráfica é o requisito mínimo.
O treinamento de grandes modelos de linguagem é um processo que consome muita energia e com uma imensa pegada de CO2. A Microsoft já está planejando alimentar seus data centers com pequenas usinas nucleares (SMR).
https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactorsA questão é se o gasto energético é justificado pelo resultado. Jürgen Schmidt chega a uma conclusão que concorda com as minhas experiências:
"... nas áreas em que tenho conhecimentos bons a muito bons, rapidamente se tornou evidente que as respostas do ChatGPT são muitas vezes imprecisas, inúteis em termos de compreensão e por vezes completamente erradas. Isto não só torna o ChatGPT inadequado como professor, mas até mesmo francamente perigoso."
O exemplo da Oracle acima não mostra um bom resultado, mas sim uma desqualificação para a tarefa em questão. Mas é a licença para coletar dados sem restrições que mantém o entusiasmo pela IA. Em nome da ciência e da segurança, como aqui na Microsoft:
“No futuro, a empresa afirma que quer expandir suas soluções de proteção como o Microsoft Threat Analysis Center (MTAC) para incluir ferramentas de IA. a partir disso. A Microsoft afirma que mais de "Para obter 65 trilhões [americanos] de sinais de dispositivos. As abordagens de IA devem otimizar a avaliação e tornar mais fácil encontrar uma agulha em um palheiro."
Portanto, a telemetria já está enviando para casa mais dados do que a Microsoft consegue processar. Supõe-se que a IA processe a massa de dados e, assim, supostamente corrija o que foi prejudicado pelo marketing em massa de conceitos inadequados e pela falta de controle de qualidade no desenvolvimento de software, como aqui:
O Microsoft Exchange é afetado por quatro vulnerabilidades de dia zero que os invasores podem explorar para executar remotamente códigos arbitrários ou obter informações confidenciais sobre as instalações afetadas.
Segundo a Câmara de Indústria e Comércio, algo assim é o destino e não há nada que você possa fazer a respeito:
Com o site da empresa, o tráfego diário de e-mails de funcionários ou processos em rede, sua empresa também está na roda diária da fortuna dos ataques cibernéticos.
Em particular, parece que não é possível substituir softwares notoriamente inseguros por soluções mais seguras.
Quando se trata de coletar dados, também existem desejos de outros setores:
Europol quer recolher dados de controlo de chat por tempo indeterminado
A Europol quer acesso não filtrado aos dados de controlo de chat para treinar algoritmos de IA. Isso emerge de documentos internos que publicamos. Dois antigos agentes da polícia da UE mudaram-se para a organização norte-americana Thorn, que faz lobby massivo a favor da lei planeada.
A Comissão Europeia então diz assim:
A inteligência artificial (IA) confiável pode trazer muitos benefícios, como melhores cuidados de saúde, transportes mais seguros e ecológicos, produção mais eficiente e energia mais barata e mais sustentável. A abordagem da UE dará aos cidadãos a confiança necessária para utilizar esta tecnologia e incentivará as empresas a desenvolvê-la.
Já discutimos acima o respeito ambiental sustentável da IA. A Comissão Europeia menciona três projetos financiados pela UE nesta página, dos quais gostaria de destacar o último:
Nós verificamos
Uma plataforma de código aberto destinada a envolver comunidades e jornalistas cidadãos, bem como editores de notícias e jornalistas freelance, para verificação colaborativa e descentralizada, rastreamento e desmascaramento de conteúdo.
AFP e Deutsche Welle também estão envolvidas. A análise de material de imagem e vídeo em busca de falsificações ainda pode ser aceitável. Há também a “Árvore Coordenada de Detecção de Comportamento Inautêntico”, que diz:
Embora atualmente não haja uma definição clara e amplamente aceita de CIB, o conceito está ganhando cada vez mais apoio na plataforma, principalmente porque permite que a plataforma trabalhe na remoção de contas sem visualizar e julgar o conteúdo.
Trata-se da remoção automática de conteúdo indesejado “sem olhar e julgar o conteúdo”.A IA deveria ser utilizada para remoção automática de contas das redes sociais, ou seja: deveria realizar tarefas de censura.
Há duas questões que surgem aqui:
1. A própria IA é capaz e confiável o suficiente para fazer isso?
2. A censura automática é compatível com a liberdade de expressão consagrada constitucionalmente?
Conclusão
O perigo da IA claramente não reside na sua “inteligência”. Está na sua aplicação por responsáveis que não têm ideia da tecnologia e de suas limitações, mas veem a IA como um instrumento bem-vindo de controle de dados e pessoas. Como todos sabemos, os dados são o novo petróleo e a IA deveria ser a plataforma de perfuração. A própria indústria de TI ficará feliz em manter vivo o mito, dado o seu conjunto total de financiamento e os clientes dispostos a pagar.
Isto provavelmente levará a que a IA tome decisões que influenciam a economia, os governos, as leis e as nossas vidas. Decisões que ninguém consegue entender e pelas quais ninguém é responsável depois. O que poderia dar errado?
Escreva um comentário
Seu endereço de e-mail não será publicado, mas enviaremos um link de ativação.