Zum Hauptinhalt springen
Zusammen das Data-Center weiterentwickeln

Zusammen das Data-Center weiterentwickeln

Künstliche Intelligenz in der Softwareentwicklung – Chancen und Risiken

Künstliche Intelligenz in der Softwareentwicklung – Chancen und Risiken
Advanced Micro Devices GmbH
Firma: Advanced Micro Devices GmbH
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2025
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

KI kann die Softwarebereitstellung beschleunigen und effizienter machen, birgt aber auch Risiken. Sicherheitslücken, schlechtere Codequalität und Ineffizienz können unerwünschte Folgen sein.

Große Sprachmodelle (Large Language Models, LLM) wie GPT-4 von OpenAI, Gemini von Google oder Llama von Meta können nicht nur Texte generieren, sondern lassen sich auch für die Programmierung verwenden. Laut dem aktuellen Trends Report des Softwareunternehmens CodeSignal nutzen bereits mehr als 80 Prozent der Softwareentwickler künstliche Intelligenz (KI) bei ihrer Arbeit. Fast die Hälfte verwendet KI-Coding-Assistenten sogar täglich. Zu ähnlichen Werten kommt der 2024 Stack Overflow Developer Survey. Demnach setzen 62 Prozent der befragten Entwickler bereits KI ein, weitere 14 Prozent planen den Einsatz. Zu den beliebtesten Tools gehören laut CodeSignal ChatGPT, GitHub Copilot und Google Gemini.

Vorteile der KI-gestützten Softwareentwicklung

Developer sehen im Einsatz künstlicher Intelligenz vor allem folgende Vorteile:

  • Höhere Produktivität: Mehr als zwei Drittel der von CodeSignal befragten Nutzer intelligenter Assistenten geben an, dass sie durch den KI-Einsatz produktiver geworden sind. Der 2024 Stack Overflow Developer Survey kommt sogar zu noch höheren Zustimmungswerten. Hier sagen 81 Prozent der teilnehmenden Entwickler, die KI bereits nutzen, dass ihre Produktivität dank künstlicher Intelligenz gestiegen sei. Der wahrgenommene Produktivitätsvorteil wird durch eine Studie von Microsoft-Forscher Sida Peng und anderen bestätigt. Die Wissenschaftler ließen zwei Teams die gleiche Programmieraufgabe erledigen, einmal mit und einmal ohne KI-Unterstützung. Das Team, das den KI-Assistenten GitHub Copilot nutzen durfte, war um rund 50 Prozent schneller als die Kontrollgruppe.
  • Schnellere Lernfortschritte: KI kann dabei helfen, neue Programmiersprachen und technische Fertigkeiten schneller zu erlernen. Fast die Hälfte (47 Prozent) der Teilnehmer an der CodeSignal-Umfrage nutzen intelligente Assistenten als persönlichen Tutor oder Lehrer. Mehr als 62 Prozent der Teilnehmer an der Stack-Overflow-Studie verzeichnen dank KI schnellere Lernfortschritte.
  • Bessere Qualitätssicherung: KI-Tools können nicht nur zur Generierung von Code eingesetzt werden, sondern auch zu dessen Überprüfung. Intelligente Code-Review-Agenten wie Codiga oder Tabnine erkennen Fehler und Sicherheitsrisiken in Softwareprogrammen und sollen dabei weniger Fehlalarme produzieren als herkömmliche Systeme. Zudem lassen sie sich durch Eingaben in natürlicher Sprache sehr einfach an individuelle Anforderungen anpassen.
  • Weniger Routineaufgaben: Mehr als die Hälfte der für den CodeSignal-Report Befragten nutzen KI, um sogenannten Boilerplate Code zu erstellen. Dabei handelt es sich um Softwareabschnitte, die ohne oder nur mit geringen Änderungen mehrfach in einem Programm verwendet werden. Auch bei anderen Routineaufgaben kann KI unterstützen und Entwickler entlasten. Dazu gehören beispielsweise die Dokumentation, das Umschreiben in eine andere Sprache und die Optimierung von Codeteilen.

Nachteile der KI-basierten Softwareentwicklung

KI-gestützte Entwicklung kann aber auch zu neuen Problemen führen. Insbesondere die folgenden Risiken dürfen nicht außer Acht gelassen werden:

  • Sinkende Codequalität: Mehr als die Hälfte der von CodeSignal befragten Entwickler befürchtet, dass die Codequalität durch den Einsatz von KI leiden könnte. Auch die Teilnehmer der Stack-Overflow-Umfrage sind skeptisch. Nur 43 Prozent vertrauen KI-generiertem Code, fast die Hälfte glaubt nicht, dass künstliche Intelligenz komplexe Aufgaben gut lösen kann. Die Studie „Coding on Copilot“ des Softwareunternehmens GitClear bestätigt diese Vermutung. Für sie wurden mehr als 150 Millionen Zeilen Code analysiert, die zwischen Januar 2020 und Dezember 2023 entstanden sind. Demnach hat sich der Anteil des Codes, der innerhalb von zwei Wochen nach seiner Erstellung geändert wurde, seit der Einführung von GitHub Copilot verdoppelt, was auf eine schlechtere Qualität und häufigere Korrekturen hindeutet. Auch der Prozentsatz des Codes, der kopiert und wiederverwendet wurde, stieg deutlich, was der in der Softwareentwicklung geltenden DRY-Regel (Don’t Repeat Yourself) widerspricht und die Wartung des Codes erschwert.
  • Mehr Datenpannen und Sicherheitsrisiken: Knapp die Hälfte der für den CodeSignal-Report Befragten macht sich Sorgen um Datenschutz und Sicherheit, wenn KI in der Softwareentwicklung eingesetzt wird. Diese Bedenken sind nicht unbegründet. Laut dem Report „The State of Secrets Sprawl 2024“ des auf Codesicherheit spezialisierten Unternehmens GitGuardian befinden sich fast 13 Millionen Zugangsdaten und andere sensible Informationen in öffentlich zugänglichen GitHub-Repositories. Assistenten, die auf dieser Datenbasis trainiert wurden, könnten die Geheimnisse in ihre Codevorschläge einbauen und damit neue Sicherheitslücken erzeugen.
  • Verletzung von Urheberrechten und Lizenzbestimmungen: Intelligente Assistenten wie GitHub Copilot reproduzieren häufig öffentlich zugänglichen Code, ohne eine Quelle anzugeben oder Lizenzbestimmungen zu berücksichtigen. Dem Programmierer und Anwalt Matthew Butterick wurde das 2022 zu bunt. Er verklagte die Plattform GitHub, deren Eigentümer Microsoft und OpenAI als Entwickler des zugrundeliegenden LLM. Die Klage wurde zwar weitgehend abgewiesen, dennoch bleiben intelligente Assistenten in der Softwareentwicklung ein lizenz- und urheberrechtliches Risiko.
  • Gefahr der Halluzination: Große Sprachmodelle werden darauf trainiert, immer eine Antwort zu geben, auch wenn die ihnen zur Verfügung stehenden Informationen dafür nicht ausreichen. Die Ergebnisse dieser „Halluzinationen“ sind oft bizarr und grob irreführend, manchmal aber auch kaum als Unsinn zu erkennen. In der Softwareentwicklung führen Halluzinationen unter anderem dazu, dass die KI-Assistenten auf nicht existierende oder veraltete Codebestandteile und Bibliotheken verweisen oder dass der generierte Code grobe syntaktische und logische Fehler aufweist.

Was Unternehmen beim Einsatz von KI in der Softwareentwicklung beachten sollten

Trotz der Risiken wird sich KI in der Softwareentwicklung weiter etablieren. Wie Umfragen des Marktforschungsunternehmens Enterprise Strategy Group (ESG) zeigen, haben bereits 34 Prozent der Unternehmen künstliche Intelligenz vollständig in ihre Geschäftsprozesse integriert, weitere 27 Prozent befinden sich in der Umsetzung.

Um den Nutzen von KI für die Softwareentwicklung zu erhöhen und die Risiken zu minimieren, sollten Unternehmen folgende Maßnahmen ergreifen:

KI-generierten Code sorgfältig prüfen: Intelligente Assistenten können die Softwareentwicklung enorm beschleunigen. Die Versuchung ist groß, diesen Geschwindigkeitsvorteil möglichst voll auszunutzen und die Software schnell in den Produktivitätseinsatz zu bringen. Tatsächlich muss man KI-generierten Code aber mindestens so genau prüfen wie jedes andere Programm auch. Das braucht Zeit, die man sich unbedingt nehmen sollte.

In einem ersten Schritt sollte der sogenannte „Knowledge Cutoff“ überprüft werden. Damit ist der Zeitpunkt gemeint, bis zu dem das zugrundeliegende große Sprachmodell trainiert wurde. Bibliotheken oder Frameworks, die nach diesem Datum auf den Markt kamen oder aktualisiert wurden, fehlen unter Umständen oder werden nicht korrekt implementiert. Der Code sollte deshalb daraufhin geprüft werden, ob alle verwendeten Bibliotheken und Frameworks auf dem neuesten Stand sind und ob sie den aktuellen Spezifikationen entsprechen.

Im zweiten Schritt ist die Dokumentation zu prüfen. Intelligente Assistenten kommentieren den generierten Code häufig nicht ausreichend oder fehlerhaft, was zu erheblichen Problemen bei Code-Reviews und bei der Weiterentwicklung der Software führen kann. Tools wie ESLint können helfen, fehlende oder unvollständige Kommentare zu erkennen und gegebenenfalls zu ergänzen.

Künstliche Intelligenz neigt auch dazu, Code zu generieren, der wenig oder gar nicht in die grundlegenden Prozesse einer Anwendung integriert ist. Solche isolierten Funktionen sind von geringem Wert und kaum wiederverwendbar. Aktuelle Testtools wie SonarSource ermöglichen es, gezielt nach diesen verwaisten Codeschnipseln suchen, um sie zu entfernen oder besser zu integrieren.

Eine eigene Infrastruktur für das Training und den Einsatz von KI-Modellen aufbauen: Die Nutzung von Cloud-basierten Assistenten wie ChatGPT oder GitHub Copilot birgt das Risiko, dass personenbezogene Daten oder Geschäftsgeheimnisse nach außen gelangen. Open Source LLMs wie Llama oder Mistral lassen sich dagegen auch in der eigenen IT-Infrastruktur trainieren und einsetzen. Aktuelle Hochleistungsserver von Dell, HPE oder Supermicro bieten dafür die optimale Voraussetzung: Sie sind mit Hochleistungsprozessoren der AMD EPYC 9005 beziehungsweise EPYC 9004 Serie sowie AMD Instinct Beschleunigern ausgestattet und ermöglichen so das LLM-Training mit Milliarden oder gar Billionen Parametern. Mit ROCm bietet AMD zudem einen Software-Stack, der speziell für das Training und die Anwendung von KI-Modellen entwickelt und optimiert wurde.

Entwicklungsumgebungen gezielt schützen: AMD EPYC Prozessoren ermöglichen es durch Funktionen wie Secure Encrypted Virtualization (SEV), LLMs in einer sicheren verschlüsselten Laufzeitumgebung (Trusted Execution Environment, TEE) auszuführen. Durch dieses Confidential AI genannte Konzept lassen sich Daten und KI-Modelle während des Trainings und der Anwendung gezielt vor fremden Blicken und Manipulation schützen.

Fazit: KI braucht Leitplanken – auch in der Softwareentwicklung

Der unreflektierte, unkontrollierte und unkritische Einsatz künstlicher Intelligenz birgt Gefahren für die informationelle Selbstbestimmung der Bürger, den Zusammenhalt der Gesellschaft und die Funktionsfähigkeit von Staat und Wirtschaft. Wie in jedem anderen Bereich sollte KI daher auch beim Einsatz in der Softwareentwicklung sorgfältig ausgewählt, evaluiert und kontinuierlich überwacht werden. Nur so lassen sich die unbestreitbaren Vorteile optimal nutzen, ohne unkalkulierbare Risiken einzugehen.

Künstliche Intelligenz in der Softwareentwicklung – Chancen und Risiken

Inhaltstyp: Artikel
Advanced Micro Devices GmbH