jazzy-software - El blog

jazzy-software Domingo, 5.Noviembre 2023

Actualizado Viernes, 29.Marzo 2024

gigabyte.jpg

Sobre la inteligencia artificial

Hace unos años “Blockchain”, hoy la “Inteligencia Artificial” es la solución a todos los problemas. Si se ajusta al problema o no.

El revuelo que rodea a ChatGPT este año se ha enfriado un poco después de que su uso creativo de hechos se hiciera conocido varias veces. Sin embargo, la IA sigue en boca de todos como una nueva tecnología milagrosa, desde los jefes de gobierno y las comisiones hasta Microsoft y Oracle.

Oracle Database 23c ya está aquí: consultas SQL en lenguaje natural

IA también para la nueva base de datos 23c de Oracle: las funciones están destinadas a hacer que los desarrolladores sean más productivos y que los empleados puedan evaluar ellos mismos sus montañas de datos.

[...]

Esto debería permitir a los desarrolladores formular consultas SQL en lenguaje natural, que el sistema traduce automáticamente a SQL. El trabajo en este sentido ya está muy avanzado: según Andy Mendelsson, vicepresidente ejecutivo de desarrollo de tecnologías de servidores de bases de datos, la precisión actual de este tipo de consultas SQL generadas automáticamente es del 60 al 70 por ciento. "Los expertos en IA me dicen que el 70 por ciento es un valor muy bueno que difícilmente puede aumentarse incluso con mejores datos de entrenamiento", es su evaluación de la precisión de las consultas en lenguaje natural.

https://www.heise.de/news/Oracle-Datenbank-23c-ist-da-SQL-Abfragen-in-natuerlicher-Sprache-9317378.html

Sin embargo, la idea no es tan nueva. Ya en 1985 se vendió la base de datos "Q&A" de Symantec, que tenía una función de consulta en lenguaje natural. Esto se basó en un vocabulario de 600 palabras y funcionó sorprendentemente bien. El sistema quedó obsoleto cuando se estableció MS Windows y los usuarios preferían hacer clic en las listas de selección con el mouse en lugar de formular consultas e ingresarlas con el teclado.

Mientras que en aquel entonces F&A funcionaba con un procesador 8086 con unos 100 kilobytes de memoria principal y superaba con creces la tasa de aciertos de Oracle del 70%, hoy la IA es todo menos "verde". La rama ChatGPT de escritorio, gpt4all, se ejecuta como requisito mínimo en una computadora con al menos 6 núcleos y 16 GB de memoria. Luego, una consulta dura varios minutos, durante los cuales todos los procesadores funcionan a plena carga. Si desea entrenar sus propios datos, el requisito mínimo es 32 GB de memoria gráfica.

La formación de modelos lingüísticos de gran tamaño es un proceso que consume mucha energía y genera una inmensa huella de CO2. Microsoft ya está planeando alimentar sus centros de datos con pequeñas centrales nucleares (SMR).

https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactors

La cuestión es si el gasto energético está justificado por el resultado. Jürgen Schmidt llega a una conclusión que coincide con mi experiencia:

"... en las áreas en las que tengo conocimientos entre buenos y muy buenos, rápidamente se hizo evidente que las respuestas de ChatGPT a menudo son inexactas, inútiles en términos de comprensión y, a veces, completamente erróneas. Esto no sólo hace que ChatGPT no sea adecuado como profesor, sino que incluso francamente peligroso."

https://www.heise.de/hintergrund/Hintergrund-zum-Quiz-ChatGPT-erfindet-Security-7491475.html

El ejemplo anterior de Oracle no muestra un buen resultado sino más bien una descalificación para la tarea en cuestión. Pero es la licencia para recopilar datos sin restricciones lo que mantiene el entusiasmo por la IA. En nombre de la ciencia y la seguridad, como aquí en Microsoft:

"En el futuro, la empresa afirma que quiere ampliar sus soluciones de protección, como Microsoft Threat Analysis Center (MTAC), para incluir herramientas de inteligencia artificial. Con ello, entre otras cosas, quieren detectar y analizar amenazas de forma más eficaz. Los clientes deberían beneficiarse directamente De esto Microsoft afirma que más de "Para obtener 65 billones [estadounidenses] de señales de los dispositivos, los enfoques de IA deberían optimizar la evaluación y hacer que sea más fácil encontrar una aguja en un pajar".

https://www.heise.de/news/Microsoft-will-IT-Security-besser-machen-und-startet-Secure-Future-Initative-9352878.html

Entonces, la telemetría ya está enviando a casa más datos de los que Microsoft puede procesar. Se supone que la IA procesa la gran cantidad de datos y, por lo tanto, supuestamente corrige lo que se ha estropeado por el marketing masivo de conceptos inadecuados y la falta de control de calidad en el desarrollo de software, como aquí:

Microsoft Exchange se ve afectado por cuatro vulnerabilidades de día cero que los atacantes podrían aprovechar para ejecutar código arbitrario de forma remota u obtener información confidencial sobre las instalaciones afectadas.

https://www.bleepingcomputer.com/news/microsoft/new-microsoft-exchange-zero-days-allow-rce-data-theft-attacks/

Según la Cámara de Industria y Comercio, algo así es el destino y no se puede hacer nada al respecto:

Con el sitio web de la empresa, el tráfico diario de correo electrónico de los empleados o los procesos en red, su empresa también está en la rueda de la fortuna diaria de los ciberataques.

https://www.it-sicherheitstag-ihk-nrw.de/Start.html

En particular, parece que no se puede reemplazar el software notoriamente inseguro con soluciones más seguras.

En lo que respecta a la recopilación de datos, también hay deseos de otros sectores:

Europol quiere recopilar datos de control de chat de forma indefinida

Europol quiere acceso sin filtros a los datos de control del chat para entrenar algoritmos de inteligencia artificial. Esto surge de documentos internos que publicamos. Dos ex policías de la UE se pasaron a la organización estadounidense Thorn, que está presionando masivamente a favor de la ley prevista.

https://netzpolitik.org/2023/interne-dokumente-europol-will-chatkontrolle-daten-unbegrenzt-sammeln/

La Comisión Europea lo dice entonces así:

La inteligencia artificial (IA) confiable puede aportar muchos beneficios, como una mejor atención médica, un transporte más seguro y ecológico, una fabricación más eficiente y una energía más barata y sostenible. El enfoque de la UE dará a los ciudadanos la confianza para utilizar esta tecnología y animará a las empresas a desarrollarla.

https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_de

Ya hemos discutido anteriormente el respeto al medio ambiente sostenible de la IA. La Comisión de la UE menciona tres proyectos financiados por la UE en esta página, de los cuales me gustaría señalar el último:

Verificamos

Una plataforma de código abierto destinada a involucrar a comunidades y periodistas ciudadanos, así como a editores de noticias y periodistas independientes, para la verificación, seguimiento y desacreditación colaborativa y descentralizada del contenido.

https://weverify.eu

También participan AFP y Deutsche Welle. El análisis de imágenes y vídeos en busca de falsificaciones puede seguir siendo aceptable. También existe el “Árbol coordinado de detección de comportamientos no auténticos”, que dice:

Aunque actualmente falta una definición clara y ampliamente aceptada de CIB, el concepto está ganando cada vez más apoyo en la plataforma, particularmente porque permite que la plataforma trabaje en la eliminación de cuentas sin ver ni juzgar el contenido.

https://weverify.eu/news/coordinated-inauthentic-behaviour-detection-tree/

Se trata de la eliminación automática de contenidos no deseados "sin mirar ni juzgar el contenido". La IA debería utilizarse para la eliminación automática de cuentas de las redes sociales, es decir: debería realizar tareas de censura.

Hay dos preguntas que surgen aquí:

1. ¿Es la propia IA lo suficientemente capaz y confiable para hacer esto?

2. ¿Es compatible la censura automática con la libertad de expresión consagrada constitucionalmente?

Conclusión

El peligro de la IA claramente no reside en su “inteligencia”. Reside en su aplicación por parte de responsables que no tienen idea de la tecnología y sus limitaciones, pero ven la IA como un instrumento bienvenido para controlar datos y personas. Como todos sabemos, los datos son el nuevo petróleo y se supone que la IA es la plataforma de perforación. La propia industria de TI estará feliz de mantener vivo el mito, dado su fondo de financiación completo y sus clientes dispuestos a pagar.

Esto probablemente conducirá a que la IA tome decisiones que influyan en la economía, los gobiernos, las leyes y nuestras vidas. Decisiones que nadie puede entender y de las que nadie se hace responsable después. ¿Qué podría salir mal?

Escribir un comentario

Su dirección de correo electrónico no se publicará, pero le enviaremos un enlace de activación.