Materialentwicklung der Zukunft
Die Plattform MaterialDigital (PMD) schafft digitale Werkzeuge, um die Materialentwicklung zu beschleunigen – von der Forschung, über die Produktion bis zum Recycling. Durch automatisierte Workflows, standardisierte Ontologien und eine moderne IT-Infrastruktur schafft die PMD die Grundlage für effizientere, nachhaltigere und wettbewerbsfähigere Prozesse. Auf diese Weise wird der Zugang zur Nutzung von Machine Learning (ML) und Künstliche Intelligenz (KI) im komplexen Feld der Materialwissenschaften geschaffen.
Mit Workflow-Tools wie Pyiron und SimStack ermöglicht die PMD die Automatisierung von Laborroutinen und Simulationsprozessen. So lassen sich Materialeigenschaften wiederholbar / User-unabhängig, schneller vorhersagen, Fehler frühzeitig erkennen und Produktionsqualität steigern – bei gleichzeitig sinkenden Kosten. Die PMD Core Ontology (PMDco) und passende Ontologie-Tools sorgen für semantische Klarheit und Interoperabilität: Alle Beteiligten nutzen dieselbe „Sprache“, was den Datenaustausch und die Zusammenarbeit deutlich vereinfacht.
Die PMD bietet zudem eine moderne IT-Infrastruktur für FAIRe Daten – findbar, zugänglich, interoperabel und wiederverwendbar. So bleiben Materialdaten über den gesamten Lebenszyklus hinweg nutzbar und sicher. Regelmäßige Community-Formate wie Workshops, Foren und Networking-Veranstaltungen fördern den Austausch zwischen Wissenschaft und Industrie, zu dem wir auch Sie ganz herzlich einladen!
Fazit: Die PMD liefert nicht nur Technologie, sondern ein ganzheitliches Ökosystem für die digitale Materialentwicklung – mit klaren Tools, standardisierten Prozessen und einer aktiven Community, sein Sie dabei!
Wie können Sie die Lösungen der PMD in Ihrem Projekt nutzen?
FAIRe Daten
Mit einer bahnbrechenden Veröffentlichung hat im Jahr 2016 eine Gruppe um Mark Wilkinson und Barend Mons die sog. FAIR Prinzipien als Grundlage für das Datenmanagement im wissenschaftlichen Betrieb eingeführt. Mit diesen Prinzipien sollten die Daten so verwaltet werden, dass sie durchgehend von ihren Bereitstellern, Nutzern und Besitzern als Findable, Accessible, Interoperable und Re-usable betrachtet werden.
The FAIR Guiding Principles for scientific data management and stewardship Mark D. Wilkinson et al. Scientific Data, 15 March 2016 DOI: 10.1038/sdata.2016.18
Mit diesen Prinzipien wurden von den Autoren bewusst keine festen Regeln aufgestellt, sondern vielmehr Rahmenbedingungen für das Verhalten der Mitglieder einer Community skizziert. Auf diesem Weg sollte die Gemeinschaft selbst Vertrauen und Effizienz von reproduzierbarer Forschung bis zu skalierbarer Industrieanwendung und Innovation ermöglichen.
Wenn die FAIR-Prinzipien bei der Datenverwaltung innerhalb einer Community konsequent genutzt werden, können Experimente und Simulationen unter gleichen Bedingungen nachvollziehbar und damit verlässlich wiederholt werden können, was das Vertrauen in die Ergebnisse stärkt. Saubere, vollständige Datensätze erhöhen die Qualität von Machine Learning und Mehrskalenmodellen, weil sie robuste und generalisierbare Vorhersagen ermöglichen.
In der Materialwissenschaft und Werkstofftechnik werden Daten aus sehr unterschiedlichen Wissensbereichen in enger Beziehung zueinander gesetzt. Für eine gegebene chemische Zusammensetzung bestimmen die Eigenschaften des Vormaterials sowie die gewählte Fertigungsroute die Struktur und das Verhalten des Endprodukts maßgeblich. Das Management nach den FAIR-Prinzipien muss diesen diffusen Charakter von Materialdaten Rechnung tragen.
Gut zugängliche und interoperable Daten beschleunigen zudem die Optimierungsverfahren in der Suche von innovativen Materiallösungen, weil Screening Prozesse und der Transfer von Erkenntnissen deutlich effizienter ablaufen. Das mindert teure Fehlversuche und Wiederholungen, spart Zeit und Kosten und macht Entwicklungsprojekte planbarer.
Standardisierte Formate und aussagekräftige Metadaten erleichtern die Zusammenarbeit zwischen Teams in Unternehmen und in wissenschaftlichen Einrichtungen, während provenance orientierte Dokumentation, Versionierung und Metadaten die Nachvollziehbarkeit sichern und regulatorische Anforderungen sowie Audits unterstützen.
Konsistente Daten über den gesamten Lebenszyklus eines Bauteils ermöglichen valide Aussagen zu Lebensdauer, Sicherheit und Nachhaltigkeit, und weil FAIR Daten gut dokumentiert sind, bleiben sie langfristig nutzbar und wertvoll für zukünftige Analysen und Wiederverwendung.
Kurz: Das Management von Materialdaten nach den FAIR-Prinzipien erhöht Qualität, Effizienz und Vertrauen — und ist damit ein entscheidender Hebel für erfolgreichere Forschung und produktive Umsetzung im wirtschaftlichen Kontext.
Daten-basierte Workflows
Was sind Workflows?
Workflows sind strukturierte, wiederholbare Abläufe oder Prozesse, die eine Reihe von Aufgaben, Aktivitäten oder Schritten definieren, die zur Erreichung eines bestimmten Ziels oder Ergebnisses erforderlich sind. Sie werden häufig in Unternehmen eingesetzt, um Effizienz zu steigern, Kommunikation zu verbessern und die Qualität von Ergebnissen zu gewährleisten.
Wichtige Merkmale von Workflows:
- Schritte und Aktivitäten: Workflows bestehen aus mehreren klar definierten Schritten, die nacheinander oder parallel ablaufen können.
- Rollen und Verantwortlichkeiten: Jeder Schritt im Workflow kann bestimmten Personen oder Gruppen zugeordnet sein, die für die Ausführung verantwortlich sind.
- Automatisierung: Viele Workflows können automatisiert werden, um menschliche Fehler zu reduzieren und die Bearbeitungszeit zu verkürzen.
- Dokumentation: Workflows enthalten oft Dokumentationen, die beschreiben, wie die einzelnen Schritte ausgeführt werden sollen.
- Flexibilität: Workflows können je nach Bedarf angepasst oder optimiert werden, um sich verändernden Anforderungen gerecht zu werden.
Beispiele für Workflows:
- Genehmigungsprozesse: Ein Workflow zur Genehmigung von Urlaubsanträgen in einem Unternehmen.
- Produktentwicklung: Schritte von der Ideenfindung über das Design bis zur Markteinführung eines neuen Produkts.
- Kundenservice: Der Prozess zur Bearbeitung von Kundenanfragen oder Beschwerden.
Workflows sind ein wichtiges Werkzeug im Prozessmanagement und tragen zur Optimierung von Arbeitsabläufen in Organisationen bei.
Wozu werden Workflows genutzt?
Workflows werden aus mehreren Gründen in Unternehmen und Organisationen genutzt:
- Effizienzsteigerung: Workflows helfen, Prozesse zu standardisieren und zu optimieren, wodurch die Durchlaufzeiten verkürzt werden und Ressourcen besser genutzt werden.
- Klarheit und Struktur: Sie bieten eine klare Struktur, die es den Mitarbeitenden erleichtert, ihre Aufgaben zu verstehen und zu wissen, was als Nächstes zu tun ist.
- Fehlerreduktion: Durch standardisierte Abläufe und Automatisierung werden menschliche Fehler minimiert, was die Qualität der Ergebnisse verbessert.
- Transparenz: Workflows schaffen klare Verantwortlichkeiten und Sichtbarkeit über den Status von Aufgaben, was die Kommunikation im Team verbessert.
- Nachverfolgbarkeit: Sie ermöglichen eine einfache Nachverfolgung von Fortschritten und Entscheidungen, was besonders wichtig für Audits und Compliance ist.
- Flexibilität: Workflows können an sich ändernde Bedingungen oder Anforderungen angepasst werden, was Organisationen agil hält.
- Wissenstransfer: Dokumentierte Workflows erleichtern den Wissenstransfer innerhalb des Unternehmens, insbesondere wenn neue Mitarbeitende eingearbeitet werden.
- Kostenreduktion: Durch die Optimierung von Prozessen und die Reduzierung von Fehlern können Unternehmen Kosten sparen.
- Verbesserung der Mitarbeiterzufriedenheit: Klare Abläufe und reduzierte Unsicherheit können die Arbeitszufriedenheit der Mitarbeitenden erhöhen, da sie sich auf ihre Aufgaben konzentrieren können.
- Kundenzufriedenheit: Effiziente und gut organisierte Workflows führen zu schnelleren Reaktionszeiten und besseren Serviceleistungen, was die Kundenzufriedenheit steigert.
Zusammenfassend lässt sich sagen, dass Workflows eine entscheidende Rolle bei der Optimierung von Geschäftsprozessen spielen und dazu beitragen, die Gesamtleistung einer Organisation zu verbessern.
Wie helfen Workflows bei der Digitalisierung?
Automatisierung: Workflows spielen eine entscheidende Rolle in der Digitalisierung von Unternehmen, indem sie verschiedene Prozesse und Technologien miteinander verknüpfen. Zunächst ermöglichen sie die Automatisierung wiederkehrender Aufgaben, was manuelle Eingriffe reduziert und die Prozesse erheblich beschleunigt. Durch diese Automatisierung wird nicht nur die Effizienz gesteigert, sondern auch die Fehleranfälligkeit verringert.
Integration: Ein weiterer wesentlicher Aspekt ist die Integration von Technologien. Workflows schaffen die Grundlage für die nahtlose Integration verschiedener digitaler Tools und Systeme, was den Datenaustausch und die Zusammenarbeit zwischen Teams erleichtert. Sie unterstützen zudem ein effektives Datenmanagement, indem sie helfen, Daten strukturiert zu erfassen, zu speichern und zu verwalten. Dies ist entscheidend für die Datenanalyse und die darauf basierende Entscheidungsfindung.
Kommunikation: Digitale Workflows fördern auch eine verbesserte Kommunikation zwischen den Teams, da Informationen und Aufgaben in Echtzeit geteilt werden können. Diese Echtzeitkommunikation trägt dazu bei, dass alle Beteiligten stets auf dem gleichen Stand sind. Die Flexibilität und Anpassungsfähigkeit von Workflows sind ebenfalls von großer Bedeutung, da sie leicht an neue digitale Anforderungen angepasst werden können, was Unternehmen agiler macht.
Transparenz: Ein weiterer Vorteil digitaler Workflows ist die Transparenz und Nachverfolgbarkeit von Aufgaben und Prozessen, was die Verantwortlichkeit innerhalb des Teams erhöht. Dies ist besonders wichtig für das Management und die Einhaltung von Vorschriften. Darüber hinaus können Unternehmen durch die Optimierung ihrer Prozesse und die Reduzierung von Fehlern erhebliche Kosteneinsparungen erzielen, was in digitalen Transformationsprojekten von großer Bedeutung ist.
Skalierbarkeit: Die Skalierbarkeit digitaler Workflows erlaubt es Unternehmen, diese mit ihrem Wachstum anzupassen, und die Zugänglichkeit gewährleistet, dass Informationen und Prozesse von überall und zu jeder Zeit zugänglich sind. Dies unterstützt insbesondere die Arbeit im Homeoffice oder im Außendienst.
Kundenzufriedenheit: Schließlich verbessert die Digitalisierung von Workflows das Kundenerlebnis, indem sie schnellere Reaktionszeiten und personalisierte Dienstleistungen ermöglicht. Insgesamt sind Workflows somit ein wesentlicher Bestandteil der digitalen Transformation, da sie es Unternehmen ermöglichen, effizienter zu arbeiten, ihre Prozesse zu optimieren und sich an die sich ständig ändernden digitalen Anforderungen anzupassen.
Workflows
SimStack
SimStack ist eine kommerzielle Workflow Umgebung, die eine effizente Gestaltung und Anpassung komplexer Workflows („rapid prototyping") mit Softwaremodulen verschiedener Anbieter per Drag-and-Drop ermöglicht, wobei nur für den jeweiligen Use-Case relevante Settings exponiert werden. Zusammen mit der automatisierten Ausführung der Workflows auf Großrechnern wird hierdurch die Komplexität für den Endnutzer und die benötigte Expertise minimiert. Dies ermöglicht den Transfer komplexer, wissenschaftlicher Multiskalenmethoden in die Industrie.
Pyiron
Pyiron ist eine Python basierte integrierte Entwicklungsumgebung für die rechnergestützte Materialwissenschaft. Diese Workflowumgebung wurde vom Max-Planck-Insitut für nachhaltige Materialien (MPI SuSMat) entwickelt und wird von der PMD und dem MPI SuSMaT konstant weiterentwickelt.
Die Grundidee hinter diesem Framework ist es, ein einziges Werkzeug mit einer einheitlichen Schnittstelle für die verschiedensten Simulationscodes sowie Analyse- und Visualisierungstools bereitzustellen. Die Verfügbarkeit dieser IDE ermöglicht es dem Benutzer, sich auf die Wissenschaft zu konzentrieren, anstatt sich mit technischen Details wie Ein-/Ausgabeformaten der Codes und Tools befassen zu müssen.
Workflowstore
Der Workflow Store ist ein Ort, an dem Wissenschaft mit anderen geteilt werden kann. Workflows und Workflowmodule können hier hochgeladen werden, um Forschungsarbeiten reproduzierbar der Community bereitzustellen.
Daten-basierte Ontologien
Grundlagen verstehen: Was ist eine Ontologie?
Eine Ontologie ist ein strukturiertes Konzept zur Darstellung von Wissen in einem bestimmten Bereich. Sie definiert:
- Konzepte und Klassen: Ontologien beschreiben die relevanten Konzepte (Entitäten) in einem bestimmten Wissensbereich und organisieren sie in Klassen oder Kategorien.
- Beziehungen: Sie spezifizieren die Beziehungen zwischen den Konzepten, wie z. B. Hierarchien (Eltern-Kind-Beziehungen) oder Assoziationen (z. B. "ist ein", "hat einen").
- Eigenschaften: Ontologien definieren auch Eigenschaften oder Attribute, die den Konzepten zugeordnet sind, und beschreiben deren Merkmale.
- Regeln und Axiome: In vielen Fällen enthalten Ontologien auch logische Regeln oder Axiome, die zusätzliche Informationen über die Konzepte und deren Beziehungen bereitstellen.
- Standardisierung: Ontologien dienen oft als Standards zur Interoperabilität von Systemen und zur einheitlichen Kommunikation zwischen verschiedenen Anwendungen.
Insgesamt hilft eine Ontologie, komplexe Informationen zu organisieren und zu strukturieren, um die Kommunikation und das Verständnis innerhalb eines bestimmten Bereichs zu verbessern.
Warum nutzen wir Ontologien?
Ontologien werden in verschiedenen Bereichen eingesetzt, um Wissen zu organisieren, die Interoperabilität zwischen Systemen zu fördern und semantische Suchanfragen zu ermöglichen. Sie verbessern die Kommunikation zwischen Menschen und Maschinen, unterstützen die Wiederverwendbarkeit von Wissen, automatisierte Prozesse und gewährleisten Konsistenz in der Datenverwendung. Zudem erleichtern sie die Integration von Daten aus unterschiedlichen Quellen, sind erweiterbar und unterstützen Entscheidungsprozesse. Insgesamt helfen sie, komplexe Informationen zu strukturieren und die Effizienz zu steigern.
Ontologien stellen durch die Bereitstellung einer gemeinsamen Semantik so etwas wie ein gemeinsames Wörterbuch oder Regelwerk dar, das sicherstellt, dass alle bei der Beschreibung von Materialien, Komponenten oder Prozessen dieselben Wörter mit derselben Bedeutung verwenden. Durch Ontologien werden Daten interoperabel – das bedeutet, dass „das, was Sie senden", genau „das ist, was ich empfange".
Ontologien erstellen strukturierte, maschinenlesbare Daten, sodass verschiedene Systeme miteinander kommunizieren können. Ontologien bieten einen semantischen Rahmen, der flexibles und kontextsensitives Schlussfolgern ermöglicht. Dadurch können sie neue oder unvorhergesehene Benutzeranfragen bearbeiten, die in den Originaldaten nicht explizit definiert waren, und gewährleisten so langfristige Anpassungsfähigkeit und Relevanz.
Anwendungsgebiete:
- Wissensmanagement: Strukturierung und Organisation von Wissen in Unternehmen.
- Künstliche Intelligenz: Verbesserung der Datenverarbeitung und des maschinellen Lernens.
- Semantic Web: Ermöglicht Maschinen, Informationen besser zu verstehen und zu verarbeiten.
Wie helfen uns Ontologien zu digitalisieren?
Ontologien fördern die Digitalisierung, indem sie Wissen systematisch strukturieren und die digitale Speicherung sowie den Abruf von Informationen erleichtern. Sie verbessern die Integration von Daten aus verschiedenen Quellen und fördern die semantische Interoperabilität, wodurch die Kommunikation zwischen digitalen Systemen optimiert wird. Ontologien bieten eine strukturierte Wissensbasis für KI- und Datenanalyse-Anwendungen, unterstützen die semantische Suche und erhöhen die Wiederverwendbarkeit von Daten in unterschiedlichen Projekten. Darüber hinaus ermöglichen sie die Automatisierung von Prozessen, verbessern die Datenqualität und sind flexibel anpassbar. Insgesamt schaffen sie ein einheitliches Verständnis von Wissen, das für digitale Anwendungen unerlässlich ist.
Einführung in die Basic Formal Ontology (BFO)
Die Basic Formal Ontology (BFO) ist eine leichtgewichtige, domain neutrale obere Ontologie, die als gemeinsame konzeptionelle Grundlage für fachliche Ontologien dient. Sie liefert ein kleines Set philosophisch fundierter Kategorien und Beziehungen (z. B. continuants vs. occurrents, unabhängige vs. abhängige Entitäten, Qualitäten, Rollen), mit denen konkrete Dinge, Prozesse und ihre Eigenschaften konsistent modelliert werden können.
Was ist der Mehrwert der BFO?
- Interoperabilität: Durch Ausrichtung auf dieselbe obere Struktur lassen sich Daten und Ontologien aus verschiedenen Disziplinen leichter zusammenführen.
- Konsistenz & Klarheit: Die klaren ontologischen Unterscheidungen (z. B. Objekt vs. Prozess) helfen, Mehrdeutigkeiten zu vermeiden und Modelle verständlicher zu machen.
- Wiederverwendbarkeit: Domain Ontologien, die BFO nutzen, werden modularer und leichter in andere Projekte integrierbar.
- Unterstützung für automatische Inferenz: BFO Strukturen sind gut für logische Prüfungen und Reasoner geeignet, wodurch Inkonsistenzen früher erkennbar werden.
- Breite Akzeptanz: Viele etablierte Ontologien (insbesondere im OBO /biomedizinischen Raum) bauen auf BFO auf, was Integrationsprojekte erleichtert.
Ontology Development Kit
Das Ontology Development Kit (ODK) ist ein standardisiertes Toolkit und Template Workflow für die Entwicklung, Validierung, Veröffentlichung und Pflege von Ontologien. Es bündelt bewährte Tools (ROBOT, dosdp-tools, Reasoner, Docker), ein Makefile basiertes Build System, CI Vorlagen und Release Automatik, sodass Ontologieprojekte reproduzierbar, wartbar und teamfähig werden.
Was ist der Mehrwert des ODK?
- Standardisierung: Einheitlicher Projektaufbau reduziert Onboarding Aufwand und Fehler.
- Automatisierung: Build, Tests, Quality Checks und Releases sind wiederholbar und CI fähig.
- Reproduzierbarkeit: Docker Images und Make Targets sorgen dafür, dass Builds überall gleich laufen.
- Interoperabilität: Unterstützt gängige Formate (OWL/RDF, TTL) und Tools (ROBOT, SPARQL).
- Qualitätssicherung: Automatische Konsistenzprüfungen, reports und Term metadata Checks.
- Skalierbarkeit: Für Einzelprojekte wie für größere Community Ontologien geeignet.
Interaktive Arbeit mit Ontologien – Einstieg mit Protégé
Protégé ist ein freies, weit verbreitetes Werkzeug zum Erstellen und Pflegen von Ontologien (OWL/RDF). Es hilft, Domänenwissen explizit, maschinenlesbar und wiederverwendbar zu machen — genau das, was man braucht, um Daten interoperabel, nachvollziehbar und FAIR zu gestalten.
- Es macht Wissen formal: Klassen, Eigenschaften und Beziehungen werden klar definiert, so dass unterschiedliche Teams dieselbe Semantik teilen.
- Es fördert Interoperabilität: Ontologien in OWL/RDF sind Standardformate, die sich gut in Datenpipelines, Semantic-Web-Services und Machine Learning Workflows einbinden lassen.
- Es erlaubt automatische Prüfung: Mit Reasonern (z. B. HermiT) können Inkonsistenzen und logische Fehler früh gefunden werden.
- Es unterstützt Zusammenarbeit: WebProtégé bietet gemeinsames Bearbeiten, Kommentare und Rechteverwaltung.
- Es ist etabliert und offen: große Community, viele Plugins, Integrationen (OWL API, Jena, SPARQL) und keine Lizenzkosten.
- Es erhöht den Wert der Daten: Durch klare Definitionen werden Daten besser auffindbar, wiederverwendbar und langfristig nutzbar — ein direkter Beitrag zu FAIR.
Protégé ist das Werkzeug, mit dem semantische Klarheit geschaffen werden, Datenintegration erleichtert und langfristig FAIRfähige Datenlandschaften aufgebaut werden können — mit relativ geringem Einstiegshürden, starker Community und direktem Nutzen für Qualität und Automatisierung.
Ontologien
PMD core ontology
Die PMD Core Ontology (PMDco) ist eine BFO basierte Mid-Level Ontologie und dient als semantischer Anker in den Material- und Werkstoffwissenschaften. Sie wird fortlaufend weiterentwickelt.
Die aktuellste Version kann über GitHub abgerufen werden.
Anwendungsontologien
Anwendungsontologien beschreiben Konzepte, Beziehungen und Regeln, die für einen bestimmten Wissensbereich oder eine bestimmte Anwendung spezifisch sind. Anwendungsontologien bieten die Möglichkeit, das eigene Wissen in einer Ontologie zu beschreiben und diese auf die PMDco zu mappen. Die veröffentlichten Anwendungsontologien können über GitHub abgerufen werden.
OntoDocker
OntoDocker ist eine Flask-Webanwendung zur Verwaltung von Ontologien, die als Teil der Plattform MaterialDigital entwickelt wurde. Sie ermöglicht den Zugriff auf Ontologien über eine grafische Benutzeroberfläche (GUI) und eine API sowie deren Management, Visualisierung und Abfrage, einschließlich der Authentifizierung via Single Sign-On (SSO). OntoDocker nutzt Docker zur Bereitstellung von Ontologie-Datenbanken wie Blazegraph und Jena Fuseki.
Der OntoDocker soll die Interoperabilität und den Datenaustausch in der Materialwissenschaft und Werkstofftechnik fördern.
IT-Architektur
PMD-S
PMD-S sind PMD-Server Instanzen, welche dezentral bei Interessierten in Betrieb genommen werden. Aktuell können pyiron (Workflowumgebung) und OntoDocker (Verwaltung von Ontologien) dem PMD-S hinzugefügt werden.
Die Instanzen sind kontainerisiert und so aufgesetzt, dass sie eine möglichst einfache Inbetriebnahme und Betrieb, eine sichere und vertrauenswürdige Kommunikation und eine flexible Anpassung an die eigenen Anforderungen gewährleisten.
PMD Mesh
Das PMD-Mesh ist als Netzwerk von PMD-Instanzen konzipiert, die als IDS-Datenanbieter und -Datenverbraucher fungieren. Jede PMD-Instanz hat dieselbe Grundlage – einen PMD-Server (PMD-S). Die Verwendung von Docker und Docker Compose für diesen Zweck gewährleistet einen einfachen Übergang von einem anfänglichen Standalone-Server zum PMD-Mesh. Der sichere und vertrauenswürdige Datenaustausch basiert auf WireGuard.
DataPortal
Das MD DataPortal ist ein auf CKAN basierendes Portal zum referenzieren von Daten. Die Daten werden dezentral gespeichert und können via CKAN referenziert und/oder verfügbar gemacht werden.
Die Umsetzung / Lösungen der PMD
Die Experten der PMD befinden sich in regelmäßigem Austausch. Von relevanten Veranstaltungstipps bis technischer Details wird alles erörtert. Wir laden Sie herzlich zu folgenden Veranstaltungen ein. Schreiben Sie uns bei Interesse bitte an.
- PMD Community Interaction
- Inhalt: Generelle Informationen, Networking, Projekt Präsentationen
- Wann: jeden 2. Dienstag im Monat 13-14 Uhr
- Ontology Playground
- Inhalt: PMDco und Anwendungsontologie Fragestellungen, Präsentationen, Show&Tell Sessions
- Wann: zweiwöchentlich Freitag 13-14 Uhr
- IT Infrastruktur
- Inhalt: Infos zur Implementation von PMD-S und Ontodocker
- Wann: Jeden letzten Dienstag im Monat 9-10 Uhr
- Workflow Forum
- Inhalt: Praktische Hilfe zur Entwicklung von Workflow bezogenen Konzepten und Software tools
- Wann: einmal monatlich Mittwoch 15:00-16:00 Uhr
- Workflows
- Inhalt: Praktische Hilfe zur Entwicklung von Workflow bezogenen Konzepten und Software tools
- Wann: zweiwöchentlich Freitag 8:30-10:00 Uhr