jazzy-software - El Blog

jazzy-software, actualitzat divendres, 29. març 2024

gigabyte.jpg

Sobre la intelligència artificial

Fa uns anys "Blockchain", avui "Intelligència artificial" és la solució a tots els problemes. Tant si s'adapta al problema com si no.

El bombo que envolta ChatGPT aquest any s'ha refredat una mica després que el seu ús creatiu dels fets es conegués diverses vegades. No obstant això, la intelligència artificial continua en boca de tothom com una nova tecnologia miracle, des de caps de govern i comissions fins a Microsoft i Oracle.

La base de dades Oracle 23c és aquí: consultes SQL en llenguatge natural

AI també per a la nova base de dades 23c d'Oracle: les funcions tenen com a objectiu fer que els desenvolupadors siguin més productius i que els empleats puguin avaluar ells mateixos les seves muntanyes de dades.

[...]

Això hauria de permetre als desenvolupadors formular consultes SQL en llenguatge natural, que el sistema tradueix automàticament a SQL. El treball en això ja està molt avançat: segons Andy Mendelsson, vicepresident executiu, Desenvolupament de tecnologies de servidors de bases de dades, la precisió actual d'aquestes consultes SQL generades automàticament és del 60 al 70 per cent. "Els experts en IA em diuen que el 70 per cent és un valor molt bo que difícilment es pot augmentar fins i tot amb millors dades d'entrenament", és la seva valoració de la precisió de les consultes en llenguatge natural.

https://www.heise.de/news/Oracle-Datenbank-23c-ist-da-SQL-Abfragen-in-natuerlicher-Sprache-9317378.html

La idea, però, no és tan nova. Ja l'any 1985, es va vendre la base de dades "Q&A" de Symantec, que tenia una funció de consulta en llenguatge natural. Això es basava en un vocabulari de 600 paraules i va funcionar sorprenentment bé. El sistema va quedar obsolet quan es va establir MS Windows i els usuaris preferien fer clic a les llistes de selecció amb el ratolí en lloc de formular consultes i introduir-les amb el teclat.

Mentre que F&A aleshores funcionava amb un processador 8086 amb uns quants 100 kilobytes de memòria principal i superava amb escreix la taxa d'èxit d'Oracle del 70%, avui l'IA és qualsevol cosa menys "verda". La branca de ChatGPT d'escriptori, gpt4all, s'executa com a requisit mínim en un ordinador amb almenys 6 nuclis i 16 GB de memòria. Aleshores, una consulta triga uns quants minuts, durant els quals tots els processadors funcionen a plena càrrega. Si voleu entrenar les vostres pròpies dades, 32 GB de memòria gràfica és el requisit mínim.

La formació de grans models lingüístics és un procés intensiu energètic amb una immensa petjada de CO2. Microsoft ja té previst alimentar els seus centres de dades amb petites centrals nuclears (SMR).

https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactors

La qüestió és si la despesa energètica està justificada pel resultat. Jürgen Schmidt treu una conclusió que coincideix amb les meves experiències:

"... en les àrees en què tinc bons o molt bons coneixements, ràpidament es va fer evident que les respostes de ChatGPT sovint són inexactes, poc útils pel que fa a la comprensió i, de vegades, totalment incorrectes. Això no només fa que ChatGPT no sigui adequat com a professor, sinó que fins i tot francament perillós".

https://www.heise.de/hintergrund/Hintergrund-zum-Quiz-ChatGPT-erfindet-Security-7491475.html

L'exemple d'Oracle anterior no mostra un bon resultat sinó una desqualificació per a la tasca en qüestió. Però és la llicència per recopilar dades sense restriccions el que manté l'exageració de la IA. En nom de la ciència i la seguretat, com aquí a Microsoft:

"En el futur, la companyia diu que vol ampliar les seves solucions de protecció com Microsoft Threat Analysis Center (MTAC) per incloure eines d'IA. Amb això, volen detectar i analitzar les amenaces de manera més eficaç, entre altres coses. Els clients s'han de beneficiar directament. Microsoft afirma que més que "Per obtenir 65 bilions de senyals [americans] dels dispositius. Els enfocaments d'IA haurien d'optimitzar l'avaluació i facilitar la recerca d'una agulla en un paller".

https://www.heise.de/news/Microsoft-will-IT-Security-besser-machen-und-startet-Secure-Future-Initative-9352878.html

Per tant, la telemetria ja està enviant a casa més dades de les que Microsoft pot processar. Se suposa que la intelligència artificial ha de processar la massa de dades i, per tant, suposadament corregir el que s'ha equivocat pel màrqueting massiu de conceptes inadequats i la manca de control de qualitat en el desenvolupament de programari, com aquí:

Microsoft Exchange es veu afectat per quatre vulnerabilitats de dia zero que els atacants podrien explotar per executar codi arbitrari de manera remota o obtenir informació confidencial sobre les installacions afectades.

https://www.bleepingcomputer.com/news/microsoft/new-microsoft-exchange-zero-days-allow-rce-data-theft-attacks/

Segons la Cambra d'Indústria i Comerç, una cosa com aquesta és el destí i no hi pots fer res:

Amb el lloc web de l'empresa, el trànsit diari de correu electrònic dels empleats o els processos en xarxa, la vostra empresa també es troba a la roda diària de la fortuna dels ciberatacs.

https://www.it-sicherheitstag-ihk-nrw.de/Start.html

En particular, sembla que no podeu substituir el programari notòriament insegur per solucions més segures.

Pel que fa a la recollida de dades, també hi ha desitjos d'altres sectors:

Europol vol recollir dades de control de xat indefinidament

Europol vol un accés sense filtres a les dades de control del xat per entrenar algorismes d'IA. Això es desprèn dels documents interns que publiquem. Dos antics policies de la UE van passar a l'organització nord-americana Thorn, que fa pressió massiva per la llei prevista.

https://netzpolitik.org/2023/interne-dokumente-europol-will-chatkontrolle-daten-unbegrenzt-sammeln/

Aleshores la Comissió Europea ho diu així:

La intelligència artificial (IA) fiable pot aportar molts beneficis, com ara una millor assistència sanitària, un transport més segur i més ecològic, una fabricació més eficient i una energia més barata i sostenible. L'enfocament de la UE donarà als ciutadans la confiança per utilitzar aquesta tecnologia i animarà les empreses a desenvolupar-la.

https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_de

Ja hem parlat més amunt de la compatibilitat amb el medi ambient sostenible de la IA. La Comissió Europea esmenta tres projectes finançats per la UE en aquesta pàgina, dels quals m'agradaria destacar l'últim:

WeVerify

Una plataforma de codi obert destinada a involucrar comunitats i periodistes ciutadans, així com editors de notícies i periodistes autònoms, per a la verificació collaborativa i descentralitzada, el seguiment i la desmentida del contingut.

https://weverify.eu

AFP i Deutsche Welle també hi participen. L'anàlisi de material d'imatge i vídeo per a falsificacions encara pot ser acceptable. També hi ha l'"Arbre coordinat de detecció de comportaments no autèntics", que diu:

Tot i que actualment no hi ha una definició clara i àmpliament acceptada de CIB, el concepte està guanyant un suport creixent a la plataforma, sobretot perquè permet a la plataforma treballar en l'eliminació de comptes sense veure i jutjar el contingut.

https://weverify.eu/news/coordinated-inauthentic-behaviour-detection-tree/

Es tracta de l'eliminació automàtica de contingut no desitjat "sense mirar i jutjar el contingut". La IA s'hauria d'utilitzar per a l'eliminació automàtica del compte de les xarxes socials, és a dir: hauria de dur a terme tasques de censura.

Hi ha dues preguntes que sorgeixen aquí:

1. La pròpia IA és prou capaç i fiable per fer-ho?

2. És compatible la censura automàtica amb la llibertat d'expressió consagrada constitucionalment?

Conclusió

El perill de la IA clarament no rau en la seva "intelligència". Rau en la seva aplicació per part dels responsables que no tenen ni idea de la tecnologia i les seves limitacions, però veuen la IA com un instrument benvingut per controlar dades i persones. Com tots sabem, les dades són el nou petroli, i se suposa que la IA és la plataforma de perforació. La pròpia indústria informàtica estarà encantada de mantenir viu el mite, donat el seu fons de finançament complet i els clients disposats a pagar.

Això probablement portarà a que la IA prengui decisions que influeixen en l'economia, els governs, les lleis i les nostres vides. Decisions que ningú pot entendre i de les quals ningú és responsable després. Què podria sortir malament?

Escriu un comentari

La teva adreça de correu electrònic no es publicarà, però t'enviarem un enllaç d'activació.