5 Prognosen zum Systems Engineering in 2018

Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen. Auch wenn unklar ist, ob dieses Zitat von Karl Valentin, Mark Twain oder Winston Churchill stammt, es ist zweifellos richtig. Aber Prognosen machen Spaß. Bereits vor zwei Jahren stellte ich eine Liste auf, und nun ist es Zeit für eine neue.

1. Agilität schließt Hardware ein

Agilität hat sich längst in der Softwareentwicklung und auch im Requirements Engineering bewährt. Doch relativ neu ist, dass auch das Erstellen von fertigen Produkten Teil der agilen Zyklen ist. Zu diesem Thema hatte ich bereits in meinem Bericht zu WikiSpeed berichtet, einer Firma, die im Wochentakt Autos weiterentwickelt, baut und verkauft.

Das neue hierbei ist, dass nicht nur Prototypen entwickelt werden, sondern verkaufbare Produkte. Denn iterative Entwicklung mit Prototypen gibt es ja schon länger. Sicherlich wird es in vielen Organisationen bei Prototypen bleiben. Doch diese werden dem endgültigen Produkt immer ähnlicher werden.

Das effiziente Entwickeln von agiler Hardware erfordert Technologien, die sich erst in den letzten Jahren stabilisiert haben. Dazu gehören 3D-Drucker und generische programmierbare Steuergeräte, sowie kostengünstige Aktuatoren und Sensoren.

2. Künstliche Intelligenz in Produkten und der Entwicklung

Künstliche Intelligenz, oder Artificial Intelligence (AI) ist eines der aktuellen Buzzwords, denen man zur Zeit kaum entkommen kann. Das liegt unter anderem daran, dass AI vermehrt in Konsumerprodukten eingesetzt wird. jedoch werden wir AI auch vermehrt in der Entwicklung sehen.

Konkret gibt es heute schon Ansätze, mit AI automatisiert die Traceability der Entwicklungsartefakte anzulegen, zu pflegen und zu analysieren. AI kann helfen „Hot Spots“ zu identifizieren, also potentielle Problemzonen mit viel Veränderung. Ich gehe davon aus, dass wir hier in den nächsten Jahren viele spannende Entwicklungen sehen werden.

3. Modellierung und MBSE weiter auf dem Vormarsch

Auch über Modellierung wurde hier schon viel geschrieben. Es ist zwar kein wirklich neues Thema, aber es gibt zwei Entwicklungen, die hier für eine Beschleunigung der Durchsetzung sorgen werden:

Zum Einen werden Produkte immer komplexer, und Modellierung ist ein Ansatz, mit dem wir die Modellierung in den Griff zu bekommen. Das Kosten-Nutzen-Verhältnis der Modellierung ist erst aber einer gewissen Komplexität positiv, während der Aufwand traditioneller Entwicklungsmethoden mit der Komplexität unproportional ansteigt. Doch inzwischen haben viele Produkte eine Komplexität erreicht, die MBSE attraktiv macht. Viele große Konzerne, wie Airbus, Ericsson, Daimler und Audio haben inzwischen öffentliche Statements zu MBSE gemacht.

Zum Zweiten sind die Modellierungswerkzeuge und -methoden inzwischen praxistauglich geworden. Lange Zeit wurde ernsthafte (formale) Modellierung nur in Forschung und Nischen wie Raumfahrt oder Bahntechnik eingesetzt. Die Vision von MBSE ist in einem von Willert produzierten Video zum Einsatz von IBM-Werkzeugen zu sehen. So leicht, wie es im Video aussieht, ist es in der Praxis natürlich nicht. Aber der Clip zeigt eindrucksvoll, wo die Reise hingeht. Auch der Aufkauf von NoMagic ist ein Zeichen, dass der Trend dorthin geht, die Aspekte des SE übergreifend zu modellieren.

4. Fachkräftemangel und unzulängliche Ausbildung verschärfen sich.

Ausbildung von Systems Engineers ist nach wie vor ein Problem. Es gibt zwar einige Studiengänge zu SE, als auch das INCOSE-Zertifikat. Diese helfen aber nicht, das Bewusstsein von SE in alle Bereiche der Entwicklung einfließen zu lassen. Diese Problematik hat Paul Schreinemakers gut auf den Punkt gebracht.

Eine Folge von mangelnden Ausbildungsmöglichkeiten, kombiniert mit hohen Anforderungen an neue Produkte resultiert in Fachkräftemangel. Auch wenn es in manchen Bereichen Unkenrufe zum sogenannten Fachkräftemangel gibt, ist dieser im SE real.

5. Security wird langsam ein integraler Bestandteil der Architektur.

Sicherheit, im Sinne von Security, wird sich weiter Verschärfen. Das hat natürlich etwas damit zu tun, dass immer mehr Geräte vernetzt werden. Eine gehackte Kaffeemaschine, die Spam verschickt oder Bitcoins schürft ist lediglich ärgerlich. Aber ein Auto, welches von Hackern übernommen wird, stellt ein ganz anderes Risiko dar.

Im Gegensatz zur funktionalen Sicherheit sind bei Security die Risiken, also die Sicherheitslücken, nicht bekannt. Und oft wird Sicherheit bei der Entwicklung erst im Nachgang angegangen, statt Security als einen integralen Bestandteil der Architektur zu sehen. Das wird sich ändern – aber sicher nicht in nur einem Jahr. Dieser Prozess wird viele Jahre dauern und schmerzhaft sein.

Was denken Sie?

Dies sind meine Prognosen. Was ist Ihre Meinung? Diskutieren Sie in den Kommentaren mit!

 

Dieser Artikel erschien zuerst bei se-trends.de.

  • pica

    zu Punkt 1:
    Zur Fertigung von Prototypen oder Kleinstserien, durchaus eine valide Option, die jedoch bereits genutzt wird. Zur Massenfertigung sind andere Produktionstechniken aktuell einfach deutlich preiswerter. Und ich gehe davon aus, dass auch in 20 Jahren ein gesenkgeschmiedetes Gussteil in Masse kostengünstiger zu produzieren sein wird, als mittels 3D-Druck.

    • Keine Frage dass bei Großserien spezialisierte Herstellungsverfahren kostengünstiger sind. Es wird aber sicher mehr und mehr Anwendungsfälle geben, wo die größere Flexibilität höhere Kosten rechtfertigt. Konkretes Beispiel sind Pressteile von Fahrzeugkarosserien. Die Kosten für eine Pressschablone gehen in den Millionenbereich. Wenn diese erst einmal hergestellt ist, dann lässt sich die Änderung der Form finanziell nicht rechtfertigen, auf Jahre hinaus.

      Sicherlich werden konventionelle Herstellungsverfahren nicht verschwinden, aber zum Teil verdrängt werden.

  • pica

    zu 4.
    Ich hoffe Prof. Matthias König und seine Kollegen finden Wege diesen Trend zu drehen. Zumindest Prof. Matthias König ist offen für Erfahrungen aus der Praxis.

  • pica

    zu 5.
    Für mich gilt seit nunmehr 20 Jahren Sicherheit ist ein Architekturthema (security by design). Aber die absolute Mehrheit hofft Sicherheit in Systeme hineintesten zu können.

    Somit habe ich bei diesem Punkt wieder Zweifel, arge Zweifel.

    • Gebe ich Dir recht: In 2018 werden wir das Thema garantiert nicht abschließen können. Ich denke eher, dass es ein paar saftige Skandale geben wird, die das Bewusstsein für das Thema Sicherheit schärfen und in die Öffentlichkeit bringen werden.

  • Das hat vielleicht damit zu tun, dass es inzwischen so leistungsfähige Bibliotheken gibt, dass Software mehr und mehr konfiguriert, und nicht mehr programmiert wird.

  • Yan

    Hi Michael,
    nice Artikel, vielen Dank!
    Eine Frage zu: „Konkret gibt es heute schon Ansätze, mit AI automatisiert die Traceability der Entwicklungsartefakte anzulegen, zu pflegen und zu analysieren.“ Hättest du ein Link oder eine Referenz zu dieser Aussage?

    Danke im Voraus

    • Hallo Yan,

      Ja, ich habe Beispiele. Die folgenden werden auch wirklich eingesetzt:
      – ANLEGEN: https://www.eclipse.org/mylyn/ ist ein Open Source Projekt, bei welchem die Entwicklungsumgebung auf Aufgaben fokussiert wird: Bspw. kann man die zu implementierenden Features mit JIRA strukturieren. Beim Implementieren merkt sich Mylyn, welche Quellcodedateien man angefasst hat und hängt diese Information beim Einchecken an das Feature.
      – PFLEGEN: https://www.jamasoftware.com/ Ist eine kommerzielle Plattform für die Produktentwicklung, mit Komponenten für Anforderungen und fürs Testen. Der Status der Testergebnisse (manuell oder automatisch getestet) wird automatisch verfolgt und ermöglicht damit eine aktuelle Übersicht des Teststatus, also ob getestet, ungetestet, veralteter Test, etc.
      – ANALYSIEREN: http://intercax.com/products/syndeia/ ist ein Werkzeug, mit dem Traces werkzeugübergreifend analysiert werden können.

      Vielleicht noch zum Abschluss der Kommentar, dass ich den Begriff AI in der Praxis oft primitiver wirkt, als „künstliche Intelligenz“ suggeriert. Die Frage ist auch, wo werkzeuggestütztes Arbeiten aufhört und künstliche Intelligenz anfängt. Letzten Endes ist immer noch die Intelligenz des Nutzers gefordert.

      Und es gibt sicher noch bessere Beispiele als diese hier: Das sind lediglich die, wo ich persönlich Erfahrung gesammelt haben. Es gibt bspw. auch Werkzeuge, die eine Textanalyse durchführen und darauf basierende Traces anlegen oder aktualisieren. Soweit ich weiß ist davon aber noch nicht viel im Mainstream angekommen.

      Gruß,
      – Michael

    • pica

      Die Firma EMPOLIS INFORMATION MANAGEMENT GMBH (https://www.empolis.com/) aus Kaiserslautern hat entsprechende Produkte unter dem Label Information Management im Programm. Diese Systeme kommen sowohl mit strukturierten als auch unstrukturierten Daten zurecht, entsprechend auch mit Entwicklungsartefakten.

      Aber wie Michael schon andeutete AI kann auch als künstliche Dummheit interpretiert werden.

      /Carsten