jazzy-software - Der Blog
Über Künstliche Intelligenz
Vor ein paar Jahren "Blockchain", heute ist "Künstliche Intelligenz" Lösung aller Probleme. Ob es aufs Problem passt oder nicht.
Der Hype um ChatGPT dieses Jahres ist etwas abgekühlt, nachdem mehrfach sein kreativer Umgang mit Fakten bekannt wurde. Dennoch bleibt KI als neue Wundertechnologie in aller Munde, von Regierungsoberhäuptern und Kommissionen bis zu Microsoft und Oracle.
Oracle-Datenbank 23c ist da: SQL-Abfragen in natürlicher Sprache
KI auch für Oracles neue Datenbank 23c: Mit den Features sollen Entwickler produktiver werden und Sachbearbeiter ihre Datenberge selbst auswerten können.
[...]
Damit sollen Entwickler SQL-Abfragen in natürlicher Sprache formulieren können, die das System automatisch in SQL übersetzt. Die Arbeiten hieran seien schon sehr weit fortgeschritten: Laut Andy Mendelsson, Executive Vice President, Database Server Technologies Development, beträgt die gegenwärtige Richtigkeit bei solchen automatisch generierten SQL-Abfragen 60 bis 70 Prozent. "Die KI-Experten sagen mir, dass 70 Prozent ein sehr guter Wert ist, der auch bei besseren Trainingsdaten kaum noch gesteigert werden kann", lautet seine Einschätzung bezüglich der Genauigkeit von Abfragen in natürlicher Sprache.
Die Idee ist indes nicht so neu. Bereits 1985 wurde Symantecs Datenbank "F&A" verkauft, die über eine Abfragefunktion in natürlicher Sprache verfügte. Diese basierte auf einem Vokabular von 600 Worten und funktionierte erstaunlich gut. Das System wurde obsolet, als sich MS-Windows durchsetzte und der Anwender sich lieber mit der Maus durch Auswahllisten klickte als Abfragen zu formulieren und mit der Tastatur einzugeben.
Während F&A damals noch auf einem 8086 Prozessor mit wenigen 100 Kilobyte Hauptspeicher lief und die von Oracle avisierte Trefferquote von 70% doch weit übertraf, ist die KI heute alles andere als "grün". Der ChatGPT-Ableger für den Desktop, gpt4all, läuft als Mindestanforderung auf einem Computer mit mindestens 6 Kernen und 16 GB Hauptspeicher. Eine Abfrage dauert dann mehrere Minuten, in denen alle Prozessoren unter Vollast laufen. Will man eigene Daten trainieren, sind bereits 32 GB Grafikspeicher die Mindestvoraussetzung.
Das Trainieren von "Large Language Modellen" ist ein energieintensiver Prozess mit einem immensen CO2-Fussabdruck. Microsoft plant bereits, seine Rechenzentren mit kleinen Atomkrafwerken (SMR) zu versorgen.
https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactorsOb der Energieaufwand durch das Ergebnis gerechtfertigt wird, ist die Frage. Jürgen Schmidt zieht ein Fazit, das sich mit meinen Erfahrungen deckt:
"... in den Bereichen, in denen ich mich gut bis sehr gut auskenne, fiel dann doch sehr schnell auf, dass ChatGPTs Antworten oft ungenau, beim Verständnis wenig hilfreich und manchmal richtiggehend falsch sind. Das macht ChatGPT nicht nur ungeeignet als Lehrmeister, sondern sogar regelrecht gefährlich."
Auch im Oracle-Beispiel oben zeigt sich ja kein gutes Ergebnis sondern mehr eine Disqualifikation für die gestellte Aufgabe. Doch es ist die Lizenz zum hemmungslosen Datensammeln, die den KI-Hype nicht sterben lässt. Im Namen von Wissenschaft und Sicherheit, wie hier bei Microsoft:
"Künftig will das Unternehmen eigenen Angaben zufolge seine Schutzlösungen wie Microsoft Threat Analysis Center (MTAC) um KI-Tools erweitern. Damit wollen sie Bedrohungen unter anderem effektiver erkennen und analysieren. Davon sollen die Kunden direkt profitieren. Microsoft gibt an, pro Tag mehr als 65 [amerikanische] Trillionen Signale von Geräten zu bekommen. KI-Ansätze sollen die Auswertung optimieren und das Auffinden einer Nadel im Heuhaufen erleichtern."
Die Telemetrie sendet also bereits mehr Daten nach Hause, als Microsoft verarbeiten kann. KI soll den Datenwust verarbeiten und damit angeblich richten, was durch massenhafte Vermarktung untauglicher Konzepte und mangelnde Qualitätskontrolle in der Softwareentwicklung verbockt wurde, wie hier:
Microsoft Exchange ist von vier Zero-Day-Schwachstellen betroffen, die Angreifer ausnutzen können, um aus der Ferne beliebigen Code auszuführen oder sensitive Informationen über betroffene Installationen abzurufen.
Geht es nach der IHK, ist so etwas aber Schicksal, da kann man nichts machen:
Mit der Unternehmenswebsite, dem täglichen E-Mail-Verkehr von Mitarbeitern oder vernetzten Prozessen steht auch Ihr Unternehmen am täglichen Glücksrad der Cyberattacken.
Insbesonders kann man offenbar nicht notorisch unsichere Software durch sicherere Lösungen ersetzen.
Was das Datensammeln angeht, da gibt es auch von anderer Seite Begehrlichkeiten:
Europol will Chatkontrolle-Daten unbegrenzt sammeln
Europol wünscht sich ungefilterten Zugang zu Daten der Chatkontrolle, um KI-Algorithmen zu trainieren. Das geht aus internen Dokumenten hervor, die wir veröffentlichen. Zwei ehemalige Beamte der EU-Polizei wechselten zur US-Organisation Thorn, die massiv für das geplante Gesetz lobbyiert.
Die Europäische Kommission sagt das dann so:
Vertrauenswürdige künstliche Intelligenz (KI) kann viele Vorteile mit sich bringen, etwa eine bessere Gesundheitsversorgung, sicherere und umweltfreundlichere Verkehrsmittel, eine effizientere Fertigung und kostengünstigere und nachhaltigere Energie. Das Konzept der EU wird den Bürgerinnen und Bürgern das nötige Vertrauen geben, diese Technologie zu nutzen, und Unternehmen dazu anspornen, sie zu entwickeln.
Die nachhaltige Umweltfreundlichkeit der KI haben wir ja oben bereits angesprochen. Die EU-Kommission erwähnt auf dieser Seite drei von der EU geförderte Projekte, von denen ich auf das letzte hinweisen möchte:
WeVerify
Eine Open-Source-Plattform, die darauf abzielt, Communities und Bürgerjournalisten sowie Nachrichtenredakteure und freiberufliche Journalisten für die gemeinsame, dezentrale Überprüfung, Verfolgung und Entlarvung von Inhalten zu engagieren.
Mit von der Partie sind AFP und Deutsche Welle. Die Analyse von Bild-und Videomaterial auf Fakes mag man vielleicht noch akzeptieren. Es gibt da aber auch den "Coordinated Inauthentic Behaviour Detection Tree", dort heißt es:
Obwohl es derzeit an einer klaren und allgemein akzeptierten Definition von CIB mangelt, stößt das Konzept bei der Plattform auf zunehmende Zustimmung, insbesondere weil es der Plattform ermöglicht, an der Kontoentfernung zu arbeiten, ohne den Inhalt anzusehen und zu beurteilen.
Es geht dabei also um die automatische Entfernung missliebiger Inhalte, "ohne den Inhalt anzusehen und zu beurteilen", die KI soll für eine automatische Account-Entfernung aus sozialen Netzwerken eingesetzt werden, sprich: sie soll Zensuraufgaben wahrnehmen.
Es sind zwei Fragen, die sich hier stellen:
1. Ist die KI selbst fähig und vertrauenswürdig genug, um das zu leisten?
2. Ist eine automatische Zensur mit der grundgesetzlich verankerten Meinungsfreiheit vereinbar?
Fazit
Die Gefahr von KI liegt ganz offenbar nicht in ihrer "Intelligenz". Sie liegt in ihrer Anwendung durch Verantwortliche, die von der Technik und ihren Grenzen keine Ahnung haben, aber in KI ein willkommenes Instrument der Kontrolle über Daten und Menschen sehen. Daten sind ja bekanntlich das neue Erdöl, und KI soll der Bohrturm sein. Die IT-Branche selbst wird angesichts voller Fördertöpfe und zahlungswilliger Kunden den Mythos mit Freuden lebendig erhalten.
Das führt absehbar dahin, dass KI Entscheidungen übertragen werden, die Einfluss auf Wirtschaft, Regierungen, Gesetze und unser Leben nehmen. Entscheidungen, die niemand nachvollziehen kann und für die nachher auch niemand verantwortlich ist. Was kann da schon schiefgehen?
Schreibe einen Kommentar
Ihre E-Mail-Adresse wird nicht veröffentlicht, wir senden Ihnen jedoch einen Aktivierungslink.