Über CCIT

Unser Selbstverständnis

Das Fraunhofer-Cluster of Excellence Cognitive Internet Technologies (CCIT) erforscht kognitive Technologien für das industrielle Internet. Forscher aus unterschiedlichen Disziplinen entwickeln Schlüsseltechnologien entlang der Wertschöpfungskette vom Sensor über intelligente Lernverfahren bei der Datenverarbeitung bis hin zur Cloud. Das CCIT befähigt Unternehmen zur zukunftssicheren Gestaltung ihres Geschäfts, indem es Markzugänge mit kognitiven Lösungsangeboten und Produkten eröffnet. Durch diese hochintelligenten Lösungen und Produkte soll die Wettbewerbsfähigkeit der deutschen Unternehmen bewahrt, deren Innovationskraft gestärkt und die digitale Souveränität gesichert werden. Dabei bietet das CCIT durch domänenspezifisches Expertenwissen zu jeder Phase des Transformationsprozesses passgenaue kognitive Lösungen und unterstützt bei der Komplexitätsbeherrschung.Die Unterstützung reicht dabei von der Analyse über die Planung einer zukunftsfähigen Unternehmensstrategie bis hin zur agilen Technologieentwicklung und Erprobung in den zahlreichen Innovations- und Anwendungszentren des CCIT.

Die Zentren

 

IoT-COMMS

 

Fraunhofer Data Spaces

 

Maschinelles Lernen

Glossar

5G-Positionierung   Die 5G−Positionierungsarchitektur integriert eine Vielzahl von Sensoren, welche sowohl auf Mobilfunkstandards als auch auf anderen Funktechnologien basieren, um ein hybrides Positionierungsschema zu ermöglichen. Durch Latenzzeiten von weniger als einer Sekunde, extrem hoher Zuverlässigkeit und Datenraten von bis zu zehn Gigabit pro Sekunde lässt sich eine hohe Positionierungsgenauigkeit erreichen.
Der Cognitive Sensor Connector fungiert als Edge Device innerhalb eines Netzwerks. Er verarbeitet, analysiert und aggregiert Sensordaten in Echtzeit. Die Verarbeitung geschieht in speziellen isolierten Applikation auf dem Connector, die unterschiedliche Funktionen ausführen. Alle Sensoren kommunizieren über verschlüsselte, authentifizierte und integritätsgeschützte Funkverbindungen mit dem Connector. Die Daten werden lokal erhoben und vorgehalten, so dass die Verarbeitung direkt im Connector erfolgt. Cognitvie Sensor Connector 
Datendurchgängigkeit   Die Datendurchgängigkeit ist ein entscheidender Faktor in der Automatisierung und bezeichnet die durchgehende Verwendbarkeit von relevanten Informationen entlang aller Hard- und Softwareebenen und über alle Prozesse hinweg. Bei kognitiven Technologien werden diese Informationen zentral und dezentral durch Verfahren des maschinellen Lernens angereichert und erzeugen so an allen Knoten zwischen Sensor und Cloud (datensouverän) Mehrwerte und Synergien.
Virtuelle Datenräume unterstützen den sicheren Austausch von Daten und bieten eine einfache Verknüpfung von Daten in Geschäftsökosystemen auf Basis von Standards und mit Hilfe gemeinschaftlicher Governance-Modelle. Ziel ist es, die digitale Souveränität der Eigentümer der Daten zu wahren und zugleich Möglichkeiten für Smart Services, neue Geschäftsmodelle und innovative Geschäftsprozesse zu eröffnen. Datenräume (virtuell) 
Datensouveränität  

Unter Datensouveränität (nicht digitale Souveränität) soll die Hoheit des Datenerzeugers und -inhabers – somit die Kontrolle – über die eigenen Daten verstanden werden. Sie ist eine systemrelevante Schlüsselfähigkeit für die deutsche Wirtschaft und ein Standortvorteil für Europa. Daten sind ein Wirtschaftsgut, sie sind eine strategische Ressource für innovative Geschäftsmodelle und Leistungsangebote sowie für flexible und effiziente Leistungserstellungsprozesse. Datensouveränität ist die Voraussetzung für den Erfolg der »Smart Service World« und von Industrie 4.0. Die Eigentümer der Daten sollen selbst bestimmen, mit wem sie Daten austauschen und wie vertrauenswürdige Geschäftspartner diese Daten zu welchen Zwecken und unter welchen Bedingungen nutzen dürfen – kurz: Sie üben Datensouveränität aus.

Edge Computing bezeichnet die Datenverarbeitung (zum Beispiel von Sensordaten) an Ort und Stelle. Dies ist bei vielen Anwendungen hilfreich, wie beispielsweise beim autonomen Fahren oder in der selbstlernenden Produktion. Die Daten werden direkt in den Geräten wie Autos oder Maschinen – also am Rande des Netzwerks – verarbeitet und müssen nicht komplett in Rechenzentren oder in die Cloud übermittelt werden. Zum Einsatz kommen Technologien wie Peer-to-Peer oder Ad-hoc-Vernetzung. Das spart Ressourcen und lässt eine deutlich schnellere Datenverarbeitung zu, die in einem kognitiven Internet eine wichtige Voraussetzung ist. Edge Comuting
Industrial Data Space   Der Industrial Data Space ist eine fachliche Ausprägung der International Data Spaces und war das Initialprojekt, um die ersten Ergebnisse zur IDS-Architektur zu liefern. Um den nunmehr internationalen Charakter der Initiative und um die fachliche Vielschichtigkeit des IDS zu zeigen, wurden die Ergebnisse und der Verein des Industrial Data Spaces in International Data Spaces umbenannt. Der Industrial Data Space mit seiner Industriefokussierung lebt in der gleichnamigen Community IDSA weiter.
Mit Informed Machine Learning werden Ansätze des maschinellen Lernens bezeichnet, die nicht nur aus Daten lernen, sondern auch vorhandenes »a-priori« Wissen von Experten und aus naturwissenschaftlichen Modellen integrieren, um die Nachvollziehbarkeit und Verlässlichkeit der Ergebnisse zu verbessern und ML mit weniger Daten zu ermöglichen. Informed Machine Learning
International Data Spaces (IDS)   Datenräume (virtuell) werden durch ihre Anwendungen fachlich ausgeprägt. Die Ausprägung findet beispielweise durch den Industrial Data Space, den Medical Data Space und den Materials Data Space statt. Die Ausprägungen definieren zusätzliche fachspezifische Anforderungen an die IDS-Referenzarchitektur.
Die IDS Association ist ein gemeinnütziger Verein. Im Verein arbeiten weltweit Organisationen und Unternehmen gemeinschaftlich an der IDS-Referenzarchitektur, an Anwendungsfällen, der Zertifizierung und der Softwareimplementierung des IDS. International Data Spaces Association (IDSA)
Kognitive Sensorik  

Kognitive Sensoren sind Sensoren der nächsten Generation, die nicht nur Messwerte erfassen und mit Methoden der klassischen Signalverarbeitung vorverarbeiten, sondern auch in der Lage sind, aus diesen Werten Schlussfolgerungen abzuleiten. Diese Fähigkeiten basieren auf Maschinenlernverfahren, damit die Sensoren, angereichert durch Erfahrungswissen aus der Umwelt, bestimmte Muster und Trends aus den Signalen ableiten können.

Kognitive Systeme sind technische Systeme, die digitale Information aus Sensordaten und Netzen aufnehmen und daraus auf Basis von lernenden Algorithmen Schlussfolgerungen, Entscheidungen und Handlungen ableiten und mit ihrer Umgebung im Dialog verifizieren und optimieren. Kognitive Systeme (technisch)
Kognitives Internet   Heutige internetbasierte Anwendungen, die geprägt sind durch die Paradigmen des Kommunizierens sowie des Erfassens von Daten und deren Verarbeitung, greifen zu kurz, um Anforderungen der Industrie zu erfüllen. Das kognitive Internet bietet erweiterte Funktionen zur Wissensgenerierung aus heterogenen Datenquellen und zur dynamischen Verhaltensanpassung durch maschinelles Lernen, das gezielt die Expertise von menschlichen Experten einbezieht

Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich damit beschäftigt, Maschinen mit Fähigkeiten auszustatten, die intelligentem (menschlichem) Verhalten ähneln. Dies kann mit vorprogrammierten Regeln oder durch maschinelles Lernen erreicht werden.

Künstliche Intelligenz
Lokalisierung   Die zeitlich und örtlich präzise Lokalisierung bzw. Identifikation von Komponenten und Prozessen innerhalb eines Produktionsverbundes ist eine wichtige Voraussetzung für agile und mobile Produktionssysteme. Sie ist ebenso für eine flexible funkbasierte Vernetzung innerhalb und zwischen einzelnen Produktionssystemen notwendig. Mit Hilfe von Lokalisierung lässt sich eine temporäre Anlagenumgestaltung sowie eine agile Prozessregelung basierend auf sensorbasierten Zustandsdaten von Anlage und Prozess realisieren.
Das maschinelle Lernen ist eine Disziplin der Informatik, dessen Ziel Maschinen sind, die ohne explizite Programmierung eines konkreten Lösungswegs automatisiert sinnvolle Ergebnisse liefern. Spezielle Algorithmen lernen aus den vorliegenden Beispieldaten Modelle, die dann auch auf neue, zuvor noch nicht gesehene Daten angewendet werden können. Machine Learning / maschinelles Lernen