jazzy-software - Il blog

jazzy-software, aggiornato Venerdì, 29. Marzo 2024

gigabyte.jpg

A proposito di intelligenza artificiale

Qualche anno fa “Blockchain”, oggi “Intelligenza Artificiale” è la soluzione a tutti i problemi. Che si adatti o meno al problema.

L'entusiasmo attorno a ChatGPT quest'anno si è un po' calmato dopo che il suo uso creativo dei fatti è diventato noto più volte. Tuttavia, l’intelligenza artificiale rimane sulla bocca di tutti come una nuova tecnologia miracolosa, dai capi di governo e commissioni a Microsoft e Oracle.

Oracle Database 23c è qui: query SQL in linguaggio naturale

AI anche per il nuovo database Oracle 23c: le funzionalità dovrebbero rendere gli sviluppatori più produttivi e gli impiegati in grado di valutare da soli le loro montagne di dati.

[...]

Ciò dovrebbe consentire agli sviluppatori di formulare query SQL in linguaggio naturale, che il sistema traduce automaticamente in SQL. Il lavoro in questo senso è già molto avanzato: secondo Andy Mendelsson, vicepresidente esecutivo, Database Server Technologies Development, la precisione attuale di tali query SQL generate automaticamente è del 60-70%. "Gli esperti di intelligenza artificiale mi dicono che il 70% è un valore molto buono che difficilmente può essere aumentato anche con dati di addestramento migliori", è la sua valutazione della precisione delle query in linguaggio naturale.

https://www.heise.de/news/Oracle-Datenbank-23c-ist-da-SQL-Abfragen-in-natuerlicher-Sprache-9317378.html

L’idea non è però così nuova. Già nel 1985 fu venduto il database "Domande e risposte" di Symantec, che aveva una funzione di interrogazione in linguaggio naturale. Si basava su un vocabolario di 600 parole e funzionava sorprendentemente bene. Con l'avvento di MS Windows il sistema diventò obsoleto e gli utenti preferirono cliccare sugli elenchi di selezione con il mouse piuttosto che formulare domande e inserirle con la tastiera.

Mentre allora F&A funzionava con un processore 8086 con appena 100 kilobyte di memoria principale e superava di gran lunga l'hit rate di Oracle del 70%, oggi l'intelligenza artificiale è tutt'altro che "verde". Il ramo desktop ChatGPT, gpt4all, funziona come requisito minimo su un computer con almeno 6 core e 16 GB di memoria. Una query dura quindi diversi minuti, durante i quali tutti i processori funzionano a pieno carico. Se vuoi addestrare i tuoi dati, 32 GB di memoria grafica sono il requisito minimo.

La formazione di modelli linguistici di grandi dimensioni è un processo ad alta intensità energetica con un’enorme impronta di CO2. Microsoft sta già pianificando di alimentare i propri data center con piccole centrali nucleari (SMR).

https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactors

La domanda è se il dispendio energetico è giustificato dal risultato. Jürgen Schmidt trae una conclusione che concorda con le mie esperienze:

"... nei settori in cui ho una conoscenza da buona a molto buona, è diventato subito evidente che le risposte di ChatGPT sono spesso imprecise, inutili per la comprensione e talvolta addirittura sbagliate. Ciò non solo rende ChatGPT inadatto come insegnante, ma addirittura decisamente pericoloso."

https://www.heise.de/hintergrund/Hintergrund-zum-Quiz-ChatGPT-erfindet-Security-7491475.html

L'esempio Oracle riportato sopra non mostra un buon risultato ma piuttosto una squalifica per il compito da svolgere. Ma è la licenza di raccogliere dati senza restrizioni a mantenere viva l’euforia dell’IA. In nome della scienza e della sicurezza, come qui in Microsoft:

"In futuro, l'azienda afferma di voler espandere le sue soluzioni di protezione come Microsoft Threat Analysis Center (MTAC) con strumenti di intelligenza artificiale. In questo modo, vogliono rilevare e analizzare le minacce in modo più efficace, tra le altre cose. I clienti dovrebbero trarne vantaggio diretto Microsoft afferma che più che "Ottenere 65 trilioni [americani] di segnali dai dispositivi. Gli approcci all'intelligenza artificiale dovrebbero ottimizzare la valutazione e rendere più facile trovare un ago in un pagliaio".

https://www.heise.de/news/Microsoft-will-IT-Security-besser-machen-und-startet-Secure-Future-Initative-9352878.html

Quindi la telemetria sta già inviando a casa più dati di quelli che Microsoft può elaborare. L'intelligenza artificiale dovrebbe elaborare la massa di dati e quindi correggere ciò che è stato incasinato dal marketing di massa di concetti inadeguati e dalla mancanza di controllo di qualità nello sviluppo del software, come in questo caso:

Microsoft Exchange è interessato da quattro vulnerabilità zero-day che gli aggressori potrebbero sfruttare per eseguire in remoto codice arbitrario o ottenere informazioni sensibili sulle installazioni interessate.

https://www.bleepingcomputer.com/news/microsoft/new-microsoft-exchange-zero-days-allow-rce-data-theft-attacks/

Secondo la Camera dell'Industria e del Commercio una cosa del genere è destino e non c'è niente da fare:

Con il sito web aziendale, il traffico e-mail quotidiano dei dipendenti o i processi in rete, la vostra azienda è anche nella ruota della fortuna quotidiana degli attacchi informatici.

https://www.it-sicherheitstag-ihk-nrw.de/Start.html

In particolare, sembra che non sia possibile sostituire software notoriamente insicuri con soluzioni più sicure.

Quando si tratta di raccogliere dati, ci sono desideri anche da altri ambienti:

Europol vuole raccogliere i dati di controllo delle chat a tempo indeterminato

Europol vuole un accesso non filtrato ai dati di controllo delle chat per addestrare gli algoritmi di intelligenza artificiale. Ciò emerge dai documenti interni che pubblichiamo. Due ex poliziotti europei sono passati all'organizzazione statunitense Thorn, che esercita una massiccia pressione a favore della legge prevista.

https://netzpolitik.org/2023/interne-dokumente-europol-will-chatkontrolle-daten-unbegrenzt-sammeln/

La Commissione Europea poi lo dice così:

Un’intelligenza artificiale (AI) affidabile può portare molti vantaggi, come una migliore assistenza sanitaria, trasporti più sicuri ed ecologici, una produzione più efficiente ed energia più economica e sostenibile. L'approccio dell'UE darà ai cittadini la fiducia necessaria per utilizzare questa tecnologia e incoraggerà le aziende a svilupparla.

https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_de

Abbiamo già discusso sopra della compatibilità ambientale sostenibile dell’intelligenza artificiale. La Commissione UE menziona in questa pagina tre progetti finanziati dall’UE, di cui vorrei segnalare l’ultimo:

WeVerify

Una piattaforma open source volta a coinvolgere comunità e giornalisti cittadini, nonché redattori di notizie e giornalisti freelance, per la verifica, il monitoraggio e lo smascheramento collaborativo e decentralizzato dei contenuti.

https://weverify.eu

Coinvolte anche l'AFP e la Deutsche Welle. L'analisi del materiale immagini e video per falsificare può ancora essere accettabile. Esiste anche l’“Albero di rilevamento del comportamento non autentico coordinato”, che dice:

Sebbene attualmente manchi una definizione chiara e ampiamente accettata di CIB, il concetto sta guadagnando sempre più supporto sulla piattaforma, soprattutto perché consente alla piattaforma di lavorare sulla rimozione degli account senza visualizzare e giudicare il contenuto.

https://weverify.eu/news/coordinated-inauthentic-behaviour-detection-tree/

Si tratta della rimozione automatica dei contenuti indesiderati "senza guardare e giudicare il contenuto". L'intelligenza artificiale dovrebbe essere utilizzata per la rimozione automatica degli account dai social network, in altre parole: dovrebbe svolgere compiti di censura.

Le domande che sorgono qui sono due:

1. L’intelligenza artificiale stessa è sufficientemente capace e affidabile per farlo?

2. La censura automatica è compatibile con la libertà di espressione sancita dalla Costituzione?

Conclusione

Il pericolo dell’intelligenza artificiale chiaramente non risiede nella sua “intelligenza”. Sta nella sua applicazione da parte di responsabili che non hanno idea della tecnologia e dei suoi limiti, ma vedono l’intelligenza artificiale come uno strumento gradito per controllare dati e persone. Come tutti sappiamo, i dati sono il nuovo petrolio e l’intelligenza artificiale dovrebbe essere l’impianto di perforazione. Lo stesso settore IT sarà felice di mantenere vivo il mito, dato il suo pool di finanziamenti completo e i clienti disposti a pagare.

Ciò porterà probabilmente a dare all’IA decisioni che influenzeranno l’economia, i governi, le leggi e le nostre vite. Decisioni che nessuno può comprendere e di cui nessuno è poi responsabile. Che cosa potrebbe andare storto?

Scrivi un commento

Il tuo indirizzo email non verrà pubblicato, ma ti invieremo un link di attivazione.