Prof. Dr.-Ing. Karin Vosseberg ist seit 2009 Professorin in den Studiengängen Informatik und Wirtschaftsinformatik an der Hochschule Bremerhaven. Ihr Schwerpunkt liegt im Bereich Software Engineering mit dem besonderen Fokus auf Qualität von Software. Sie hat an der Universität Bremen Informatik studiert und dort zum Thema Sicherheit in objektorientierten Ausführungsumgebungen promoviert. Anschließend hat sie sich im Projekt „Informatica Feminale – Sommeruniversität für Frauen in der Informatik“ engagiert mit dem Ziel Curricula in Informatik zur entwickeln, die für Frauen und Männer gleichermaßen attraktiv sind. Von 201-2009 war sie im Business Development Bereich der Commerz Systems GmbH beschäftigt und hat sich insbesondere mit Maintenanceprozessen beschäftigt. Sie hat über Entwicklungs-, Forschungs- und Lehrerfahrungen auf zahlreichen Konferenzen zur Diskussion gestellt. Sie engagiert sich im Forum Informatiker:innen für Frieden und gesellschaftliche Verantwortung, der Gesellschaft für Informatik und ist seit 2015 im Präsidium des Arbeitskreis Software-Qualität und Fortbildung (ASQF) und seit 2021 im Aufsichtsrat der HISeG.
Wo stehen wir heute beim Testen mit KI?
Aus meiner heutigen Sicht stehen wir beim Testen mit KI erst ganz am Anfang. Wir schauen alle fasziniert auf die Ergebnisse, die uns eine generative KI auf Basis von GPT 3 oder 4 liefert. Wir erkennen aber auch sofort, wo die Grenzen liegen. Einfache (Programmier-)Probleme können ganz gut gelöst werden, aber komplexere Aufgabenstellungen und Unstimmigkeiten stellen die KI vor größere Herausforderungen. Es wird deutlich, dass Korrelationen in den vorliegenden Daten als Basis für Entscheidungen hergestellt werden, aber keine Kausalitäten. Als Leser:in mit dem Erfahrungswissen aus der Programmierung oder der Qualitätssicherung kann ich relativ schnell erkennen, ob die von der KI vorgeschlagene Lösung brauchbar ist oder nicht und ob sie mir vielleicht einen Ansatz liefert auf dem ich aufsetzen kann.
Auf eine von der KI generierten Testumgebung würde ich mich derzeit nicht verlassen. Bis dahin wäre es noch ein sehr weiter Weg und viele Fragen offen, z.B. Wie testen wir das Ergebnis der KI?
Wie wird KI Softwaretesten in den kommenden fünf Jahren verändern?
Wenn wir uns anschauen, welche Fortschritte die Entwicklung von generativer KI in den letzten fünf Jahren gemacht hat, hätte ich vor ein oder zwei Jahren noch lange nicht erwartet, dass wir die doch beeindruckenden Ergebnisse von heute haben. Deshalb wag ich kaum eine Prognose für die nächsten fünf Jahre. Ich glaube wir werden lernen eine generative KI als Werkzeug zur Unterstützung des Softwaretestens, z.B. zur Generierung von Grundgerüsten eines Testkonzepts oder in der Generierung von Testdaten. Ähnlich wie wir auch heute schon Werkzeuge zum Übersetzen von Sprache einsetzen. Auch hier gehe ich über die automatisiert erzeugten Übersetzungen und gebe ihnen den Feinschliff. Noch ist das möglich, da wir die notwendigen Skills haben. Bis dahin muss aber auch noch einiges passieren, z.B. in Fragen ökologischer und sozialer Nachhaltigkeit von KI-Softwarelösungen. Wir können gespannt sein.
Welche Skills benötigen Testerinnen und Tester dafür?
Ich glaube, dass es nach wie vor wichtig ist, Grundkompetenzen zu erwerben und auch selber Erfahrungen mit den verschiedenen Verfahren des Softwaretestens praktisch zu sammeln, damit eine Basis entsteht, die hilft Ergebnisse einer generativen KI beurteilen zu können. An den Hochschulen stehen wir vor der gleichen Frage, was müssen unsere Studierenden lernen, damit sie Werkzeuge wie eine generative KI sinnvoll einsetzen können oder auch erkennen können, wann eine KI ihnen nicht weiterhilft. Ein Patentrezept haben wir alle noch nicht.
Wird es die Rolle des Testens in 10 Jahren noch geben?
Auf jeden Fall wird es die Rolle des Testens geben und die grundlegenden Kompetenzen werden in den Projekten notwendig sein. Auch generierte Testumgebungen müssen geprüft werden.