Software 2.0 stellt die gewohnte Welt des Programmierens auf den Kopf.

 Bildnachweis: Adobe Stock/Juth@Photographer2017

Sprechen Sie Software 2.0?

Software 2.0 löst eine liebgewordene Tradition auf. Was ganze Generationen von Entwickler:innen in Sachen Code, Debugging und Deployment gebüffelt haben, wird durch den Einsatz von KI-Modellen (teils) in Frage gestellt. Fachkräfte aus anderen Bereichen bereichern die Teams, Codieren wird als Lernprozess der Maschine gedacht, Big Data wird integriert und alternative Skills wie kritisches Denken und Datenverantwortung rücken in den Fokus. Was nach Zukunft klingt, ist längst Realität - KI-Modelle sind mitten unter uns und unverzichtbar.

Der mitunter als altbacken geltende Weg zum fehlerfreien Code wird etwas abfällig unter „Software 1.0“ subsummiert. Dennoch hat das in die Jahre gekommene Verfahren enorme Vorteile, wie die enzyklopädische Liste brauchbarer Standard-Software dokumentiert.

Progammierer:innen entscheiden sich im besagten Universum für eine komfortable Sprache, etwa für C++, Python, Java oder PHP. Als Add-on wählt man eine IDE (Integrated Development Environment). Spätestens in diesem Stadium sind die kognitiven Fähigkeiten der Schöpfer:innen gefragt. Der Code wird innerhalb der Grenzen der Syntax erstellt, also dem Regelsystem zur Kombination der elementaren Befehle. Die IDE fungiert häufig als optionaler Assistent, erleichtert den Programmiervorgang und die daraus resultierende Fehlersuche („debugging“).

Trotz multipler Verbreitung und beeindruckender Erfolgsstory sieht sich Programmieren à la Software 1.0 mit einigen Nachteilen konfrontiert:  

  • Nur hochqualifiziertes und jahrelang trainiertes Personal kann die Aufgaben übernehmen.
  • Die schrittweise Abfolge von Anweisungen muss akribisch analysiert und schließlich in Code transformiert werden.
  • Die Fehlersuche im Dschungel von Bits & Bytes gestaltet sich aufreibend.
  • Funktionen und Features müssen manuell erstellt werden, was Zeit kostet und Fehler produziert.
  • Software 1.0 ist meist wartungsintensiv und nur aufwändig zu skalieren.
  • Konventionell erzeugte Programme fußen auf festen Regeln und starrer Logik, was sie unflexibel macht.
  • Prozesse müssen manuell gestartet werden, was die Effizienz bremst   

Zusammengefasst zeigt die Historie, dass Programmierer:innen ihre Methoden so gestaltet haben, dass sie einer digitalen Maschine möglichst detailliert erklären, was zu tun ist. Vermittelt wird das in einer höchst logischen und deterministischen Sprache.

Hilfe bei der Bewältigung der umfassenden Prozeduren erhalten die Profis durch IDEs, die Funktionen bereitstellen wie „Syntax Highlighting“, „Profiling“, „Debugging“ oder „Git Integration“. Und am Ende steht das immer wiederkehrende Erlebnis, dass die Programmerstellung zu langsam und mühselig voranschreitet. Von der Fehleranfälligkeit ganz zu schweigen!  
 
Zu neuen Ufern! 
 
Theorien aus der klassischen Psychologie beschreiben punktgenau den „Next Step“ beim Programmieren. Warum sollte man sich mit ermüdendem „Versuch-und-Irrtum-Lernen“ abärgern, wenn das „Lernen am Modell“ das Ziel in greifbare Nähe bringt?

Die wertvollen Muster, die selbst wandlungsfähig sind, lagern nämlich schon in den großen Datenmengen (Big Data). Zum Einsatz in der neuen Ära kommen maschinelles Lernen und die Power neuronaler Netzwerke. Wieder einmal unterstützt die KI, indem menschengemachte Unvollkommenheiten erkannt, ausgemerzt oder à priori vermieden wird.

Wesentliche Teile der Entwicklungsarbeit, die früher durch die Schaffung expliziten Codes erledigt wurden, werden nun automatisiert und entsprechend beschleunigt. Software 2.0 ist flexibel und passt sich geschmeidig an geänderte Umgebungsvariablen an, ohne dass Programmierer:innen die Datenstruktur manipulieren müssen. Sie etabliert sich klar bei automatischen Abläufen, effizienter Anwendung, verstärkter Adaptionsfähigkeit und nicht zuletzt bei Maßnahmen zur Skalierung des Systems.  
 
Die speziellen Herausforderungen sollten allerdings nicht unbeachtet bleiben:  

  • Nachvollziehbarkeit: Entscheidungen, die aus maschinellen Lernumgebungen kommen, sind manchmal schwer verständlich.
  • Transparenz: Unklare Hintergründe und Basisinformationen verhindern Akzeptanz und Vertrauen – im Speziellen in sicherheitsrelevanten Sektoren.
  • Datenqualität: Nur absolut hochwertige und „gesunde“ Daten lassen Software 2.0 zur Höchstform auflaufen.
  • Verfügbarkeit: Modelle erweisen sich als fehlerhaft, wenn die nötige Datenmenge längere Zeit oder temporär nicht vorhanden ist.
  • Ressourcen: Neuronale Netze wollen stetig trainiert sein. Die dazu geforderten Rechenressourcen sind kostenintensiv und nicht für alle Unternehmen zu stemmen.
  • Wartung: Damit die Genauigkeit und Relevanz von Machine-Learning-Modellen gesichert bleibt, müssen Daten fortlaufend aktualisiert, überwacht und verändert werden.
  • Cyberangriffe: Software 2.0 gehört zu den datengetriebenen Komplexen. Datenschutzverletzungen, Cyber-Angriffe und Informationsklau gehören damit zu den Betriebsrisiken.

So geht’s!

Codieren, programmieren und probieren war gestern! Das Berufsbild der Branche hat sich stark gewandelt. Wenn man sich anschaut, wie Software im Umfeld von KI und Machine Learning hervorgebracht wird, wird dies klar. Hier am Beispiel der Bilderkennung:  

  1. Das Problem und seine mögliche Lösung werden in einem Paper festgehalten: „Erkenne den Elefanten im Bild“.
  2. Relevante Infos werden gesammelt und gesichtet – die Basis für das Training: Ein Konvolut von Bildern wird angelegt, auf dem Elefanten und andere Tiere zu sehen sind.
  3. Der Datenpool wird „bereinigt“ und in ein maschinengerechtes Format überführt.
  4. Ein neuronales Netzwerk (CNN – Convolutional Neuronal Network) wird ausgewählt, trainiert und optimiert sich dabei schon selbst.
  5. Mit Metriken wie Genauigkeit, Geschwindigkeit, Redundanz, Recall wird das Modell geprüft. Ein Extra-Datensatz bewertet das Modell.
  6. Das Training wird im Bedarfsfall wiederholt, die Hyperparameter werden angepasst.
  7. Das frischgebackene Modell wird in eine Deployment-Umgebung verbaut. Es verarbeitet „echte“ Daten und erstellt Prognosen. Die Integration erfolgt in eine existierende Software-Struktur oder über einen selbständigen Dienst, der Bilder der User:innen analysiert.
  8. Permanente Überwachung und neue Trainingsdurchläufe halten die Performance auf Top-Niveau. 

Apropos „Sammeln relevanter Daten“: Der datahub.tirol beschäftigt sich mit der ökonomischen Nutzung von Daten in einem strengen EU-konformen Rahmen. Unternehmen, Behören und Organisationen profitieren dabei vom eigenen oder externen Datenbestand. Der Einsatz eröffnet neue Perspektiven, vom Marketing über Personalmanagement bis hin zum innovativen Geschäftsmodell in einem Startup. 

Select the right one! 

Die Wahl des richtigen Modells ist entscheidend! Angesichts der Vielzahl an Algorithmen und Technologien wird die „Model Selection“ immer wichtiger. Ob lineare Modelle, neuronale Netzwerke oder Support-Vektor-Maschinen – die Auswahl ist riesig. Um die Qual der Wahl zu erleichtern, werden diese Methoden zur Selektion forciert: 

  • Grid Search testet alle Kombinationen von Parametern, ist aber rechenintensiv.
  • Random Search liefert gute Ergebnisse durch zufällige Parameter-Auswahl.
  • Bayesian Optimization punktet mit Effizienz, erfordert jedoch hohen Aufwand bei der Einrichtung.
  • Ensemble-Methoden kombinieren mehrere Modelle, brauchen aber viel Rechenleistung.
  • Automated Machine Learning übernimmt die Arbeit, hängt jedoch stark von der Hardware ab. 

Am Ende bleibt es ein Balanceakt zwischen Leistung und Komplexität. Datenverfügbarkeit, Modellkapazität und Generalisierungsfähigkeit spielen dabei eine zentrale Rolle. Ein smarter Kompromiss führt hier zum Erfolg!

Ein neuer Typus?

Das Rollenverständnis klassischer Entwickler:innen erfährt durch Software 2.0 eine massive Adaption. Erfahrene Software-Ingenieur:innen waren eingebettet in ein krisensicheres Umfeld und konnten enormes Geld verdienen.

Das Mindset der Programmierer:innen muss sich angesichts KI-gestützter Technologie deutlich umgestalten. Angesagt sind neue Fertigkeiten bei maschinellem Lernen und der Datenwirtschaft bzw. Datenökonomie. Der künftige Erfolg im Job ist gekoppelt an das Verständnis von Algorithmen und neuronalen Netzen.

Zum traditionellen Berufsbild gesellt sich ein datengetriebener Ansatz. Hier gilt es nicht nur, Aufgaben in Code zu überführen, sondern mit großen Datenmengen zurechtzukommen und damit Modelle fit zu machen.

Den mitunter einsam in ihren Kämmerlein werkenden Software-Autor:innen werden Expert:innen (Datenwissenschaftler:innen, Mathematiker:innen, Logiker:innen, …) zur Seite gestellt. Lebenslanges Lernen, Anwendung von modernen Apps und offene Methoden ergänzen das Portfolio.

Zudem verlagern sich Verantwortlichkeiten. Entwickler:innen überwachen künftig ML-Modelle, managen Datenpipelines und stellen die Integrität der Modelle sicher. Über allem thront schließlich ein ethischer Aspekt, bei dem es gilt, Verzerrungen („Biases“) bei der Datenerhebung zu vermeiden und den Schutz der Privatsphäre zu gewährleisten.

Mitten unter uns

Die Zukunft von Software 2.0 ist vielversprechend. Intelligente Algorithmen lernen blitzschnell in maßgeschneiderten Umgebungen und übernehmen die Rolle als digitale Assistenten – ob im Office, in der Forschung oder in der personalisierten Medizin. Dank Edge-Computing läuft alles direkt im Netzwerk: kürzere Reaktionszeiten, mehr Effizienz.

Entwickler:innen profitieren von Tools wie GitHub Copilot, die Routineaufgaben im Handumdrehen erledigen und Raum für Kreativität schaffen. Gleichzeitig bringt die KI Fachbereiche wie Informatik, Data Science und Ingenieurswesen enger zusammen – Teamwork, Innovation und smarte Lösungen stehen jetzt an erster Stelle. Ein Rundblick in die heimische und internationale Wirtschaft verrät die bereits hohe Implementierungsrate bei Software 2.0. Die bereits eroberten Anwendungsgebiete werden ständig erweitert. 

In der Medizin (IBM) sorgen KI-gestützte Bildanalysen für die Früherkennung von Tumoren und anderen Krankheiten. Gelernt wird aus einer Unmenge von Bilddaten, die schrittweise und unaufhaltsam die Treffsicherheit erhöhen.

Banken und Finanzdienstleister (HSBC) setzen auf Betrugserkennung in Echtzeit und den automatisierten Handel an den internationalen Börsen. Software 2.0 prognostiziert immer präziser mögliche Gewinne und minimiert das Verlustrisiko. Im Hintergrund gelernt wird durch historische Daten, Marktanalysen, Crashes, Bubbles, Chart-Analyse und die Psychologie der Teilnehmer:innen. 

Logistiker:innen (DHL) optimieren Transportrouten und Lieferketten mit Hilfe von KI.  

Autohersteller (TESLA) entwickeln Anwendungen rund um das autonome Fahren. Daten stammen dabei aus realen Straßensituationen und helfen, das Modell perfekt auf neue Konstellationen zu adaptieren.

Der Internet-Handel (AMAZON) verwendet neuronale Netze, damit Kunden:innen maßgeschneiderte Kaufempfehlungen erhalten. Sie basieren auf den Vorlieben und dem Surf-Verhalten der Online-Besucher:innen. 

KI-Prozesse kümmern sich mittlerweile auch um das Management von Netzwerken in der Telekommunikation (A1). Sie erkennen in Rekordzeit Verbindungsfehler und balancieren die Auslastung.

ML und neuronale Netze supporten die Bild- und Spracherkennung (GOOGLE). 

Auf das Individuum zugeschnittene Filmempfehlungen (NETFLIX) werden generiert durch die KI-Analyse des Konsumverhaltens der Streamer:innen. 

Digitale KI-Helfer  
 
Das Tiroler Unternehmen Localmind.ai bietet eine sichere Plattform. Mit ihrer Lösung können maßgeschneiderte digitale KI-Helfer („Co-Worker“) und intelligente Prozessautomatisierungen erstellt werden. Und das ganz lokal und sicher im eigenen Unternehmensnetzwerk! Damit können eigene KI-Lösung individuell entwickelt und problemlos mit den eigenen Daten verbunden und trainiert werden. Der persönliche KI-Experte wird geschaffen. Die Bedienung ist benutzerfreundlich, denn über ein intuitives Chat-Interface können Anwender:innen simpel mit der KI interagieren.  
 
Die Einsatzmöglichkeiten sind vielseitig: Localmind.ai hilft, Wissen visuell zugänglich zu machen, indem es zum Beispiel bebilderte Anleitungen verständlich erklärt. Rechnungen werden automatisch erkannt, sortiert und bearbeitet – inklusive Zahlungsanweisungen. Außerdem erstellt die KI auf Knopfdruck Berichte zu Markttrends oder spezifischen Themen, ideal für die Marktbeobachtung. 

Links

>>datahub.tirol
>>localmind.ai

Zurück