Damit KI Verständnis entwickelt: Ontologie

Laut Wikipedia ist Ontologie zunächst einmal eine Disziplin der Philosophie, die sich mit der Einteilung von Grundstrukturen der Wirklichkeit befasst, z. B. mit Begriffen wie Existenz, Sein, Werden und Realität. Es geht also um Strukturierung und Klassifizierung mit dem Zweck, ein übergreifendes Verständnis zu entwickeln. Eine Intelligenz entwickelt sich nämlich erst dann, wenn Entitäten und deren Kategorien sowie systemische Zusammenhänge verstanden werden. Das gilt für uns Menschen ebenso wie für Computer.

Verstehen kommt von Verstand…

…und mit Verstand ist die Fähigkeit gemeint, Begriffe zu bilden, Schlüsse zu ziehen, zu urteilen und letztendlich zu denken. Das, was wir also als „Intelligenz“ bezeichnen und was sich bei uns Menschen durch neurale Verbindungen im Gehirn nach und nach entwickelt, müssen wir einem Computer mühsam beibringen. Künstliche Intelligenz braucht ein Kategorie- und Beurteilungsraster. Allerdings eines, was auf den Zweck der künstlichen Intelligenz beschränkt ist, um die dazu benötigte Rechenleistung in einem realistisch zur Verfügung stehenden Rahmen zu halten. „Verständnis“ braucht „Grips“ – was menschlich einfach klingt, erklärt technologisch gesehen schnell den Ruf nach Quantencomputern, wenn es um das Verständnis künstlicher Intelligenz geht. Solange wir aber bei den marktüblichen Rechenleistungen selbst im Large Scale Industrial Computing bleiben, ist eine zweckgebundene Beschränkung von „Verständnis“ für eine künstliche Intelligenz der einzig gangbare weg.

Ontologie oder nach traditioneller Terminologie „allgemeine Metaphysik“ genannt, ist also die hohe Kunst, einer Computer Platine so etwas wie Intelligenz einzuhauchen. Ontologen in der Informationstechnologie gehören also genauso elementar zur künstlichen Intelligenz wie die Handlungsfelder „Natural Language Understanding, Processing und Generating (NLU., NLP und NLG). Klar, denn ein Computer muss erst einmal Eingaben in einer Umgangssprache verstehen, bevor er ein Verständnis für die an ihn gestellte Aufgabe entwickelt und diese dann mit der von uns bezeichneten „künstlichen Intelligenz“ löst. Aber wie genau wird einer künstlichen Intelligenz nun mit Hilfe der Ontologie ein Verstand impliziert? Nun – zunächst denken Ontologen in User Stories und Use Cases, die zum betreffenden Projekt bzw. der Aufgabe und dem Zweck einer KI-Lösung gehören. Fragen wie: „Was ist das Ziel, das hier erreicht werden soll? Was ist der Zweck? Wer ist der Dateneigentümer? Wer ist der Produkteigentümer? Wer ist der Endbenutzer? Wer ist der Fachexperte für das Business, dass eine KI gestützte Applikation braucht?“, stehen am Anfang jedweder IT-Ontologie. Dabei ist eine enge Zusammenarbeit mit Fachleuten und Experten im jeweiligen Businesssegment entscheidend für das Verständnis der Daten und den richtigen Projektrahmen. Mitarbeiter aus den Fachabteilungen sind eine Goldmine an Wissen und Informationen für eine digitale Transformation von Prozessen und darüber hinaus der Grundstein für die Erfassung von Datenquellen.

KI braucht Fokus

Für alle, die keinen Late Stage Quantencomputer haben gilt: Ein KI-Projekt sollte entsprechend den verfügbaren Ressourcen auf einen angemessenen Umfang beschränkt werden. Das gilt für die Anzahl an Personen ebenso wie für das veranschlagte Timing. Danach verschaffen sich Ontologen gern erst einmal einen Überblick zu den Datenquellen in ihrer ursprünglicher Form: Also Word-Dokumente, Excel-Tabellen, SQL-Datenbanken, etc.. Hier entscheidet sich die Notwendigkeit einer vorgeschalteten Datenkonvertierung und/oder eines Natural Language Processing. Ziel dieses Prozesses ist die Konvertierung eines Datalakes mit strukturierten und unstrukturierten Daten in ein Data Warehouse, welches Daten in einem verarbeitbaren und zweckgebundenen Rahmen speichert. Allein dieser Prozess kostet Ressourcen an Zeit und Geld, die nicht zu unterschätzen bzw. auch nur sehr schwer vorab einschätzbar sind.

Liegen verarbeitbare Daten vor, geht es tatsächlich an die eigentliche Ontologie. Meist starten Ontologen mit einer Skizze. Zusammen mit den Experten der Fachabteilung werden die wichtigsten Konzepte erfasst, wie welche Daten miteinander in Beziehung stehen und sich beeinflussen. Die Verbindungen sind dabei existenziell und ihre Benennung für die Ontologie eine entscheidende Stellschraube. Danach geht der Fokus zurück auf die Daten und der Frage, ob einzelne Datenbestände validiert werden müssen. Wenn ja, wird die Skizze mit entsprechenden Regeln (OWL Restrictions und SHACL Constraints) angereichert und in ein Ressource Description Framework (RDF) übersetzt. Zu viel Fachterminologie? Leider nicht zu vermeiden, denn wer künstliche Intelligenz verstehen will, muss den Verstand von künstlicher Intelligenz greifen können. Das ist zugegeben herausfordernd, aber das war Zukunft ja schon immer.       

Auch für diese ganzen Prozesse gibt es Tools. Ob sie noch zur MarTech Landscape zählen, sei dahingestellt – aber sie zählen zur Graph Technology Landscape, die wiederum früher oder später in jedem wettbewerbsfähigem Marketing Einzug halten wird. Deshalb ist auch nie zu früh, sich im Marketing Engineering ganz tief in den Maschinenraum modernen Marketings zu vergraben. Wichtig ist vor allem, dass es nicht zu spät erfolgt!

Die technischen Aspekte einer Graph-basiert künstlichen Intelligenz können also mit einer Basis-Skizze von Daten, Beziehungen und deren Regeln recht gut aufgezeigt werden. Diese Grundlage führt dann zu einer Vielzahl von Anbietern für Graph-Technology, allein schon was den Editor angeht, den es zum Plotten des skizzierten Datenmodells benötigt. VS Code oder  Protégé tun hier ebenso gute Dienste wie ein Vielzahl weiterer Tools am Markt. Die Visualisierung eines graph-basierten Datenmodells macht Ontologie jedenfalls sichtbar und greifbar, was am Scheideweg der Metaphysik zur betriebswirtschaftlichen Ökonomie oftmals wichtig ist. Oder anders ausgedrückt: Was nützt die neuste Technologie, wenn der Vorstand nicht versteht, was das bewirkt und wie das beim Geldverdienen helfen soll?

Auf der Fachebene ist solch eine Visualisierung ebenso hilfreich, um den Graph an Daten mit neuen Verbindungen und Beziehungen zu erweitern. Und mit SPARQL-Abfragen zur Beantwortung von Use Cases zeigt man konkrete Benefits eines Knowledge Graphen auf. Allein ein ganzheitliches Verständnis eines komplexen, globalen Geschäftsmodells überfordert heute bereits die meisten Führungskräfte und Manager. Hier können KI-gestützte Knowledge Graphs für rationales Verständnis sorgen und geschäftliche Entscheidungen auf eine deutlich größere Datenbasis inkl. derer Abhängigkeiten stellen. Das sichert eine ganzheitliche Unternehmensstrategie ab und wir in nicht allzu ferner Zukunft für den längst prognostizierten „KI-Aufsichtsratposten“ sorgen. Marktabhängiges Denken und Handeln – so definiert sich Marketing seit jeher. Insofern sollte auch das zukünftige Denken und Handeln eines Unternehmens aus dem Marketing heraus getrieben werden. Datenbasiert und umfassend, was wiederum eine starke künstliche Intelligenz mit optimierter Ontologie voraussetzt und sicher früher oder später bei der strategischen Entscheidungsfindung in Marketing und Vertrieb wie auch in der Unternehmensführung seinen unabdingbaren Platz findet, weil zum Beispiel eine DNO-Versicherung durchaus denkbar in Zukunft solch eine datenbasierte Entscheidungsgrundlage für einen vollen Versicherungsschutz fordert.

Bevor wir aber über den den Tippingpoint für den menschlichen Führungsoffizier „DATA“ auf der Brücke der Star Treck Enterprise diskutieren, gilt es aktuell erst einmal die technologischen Möglichkeiten der Jetzt-Zeit zu nutzen und damit den Gap zwischen technologischer Marchbarkeit und realer Umsetzung nicht zu groß werden zu lassen. Wer es also pragmatisch angehen mag, ist bei Jena/Fuseki gut aufgehoben, bis ein angemessen großer Daten-Graph entwickelt ist oder weitere Funktionen direkt in der Datenbank benötigt werden. Geht es dann noch tiefer Richtung Ontologie Modelling bzw. das Speichern von modellierten Daten, braucht es definitiv einen technisch versierten Marktüberblick durch spezialisierte Engineers. Das können Marketing Engineers ebenso sein wie Data-Science Engineers oder auch strategische Corporate Architects. Letztendlich werden wir uns mit hochkomplexen Daten-Beziehungs-Strukturen auseinandersetzen müssen und dabei wird die Ontologie für Verständnis und Verstand sorgen. Bei uns Menschen wie auch den Maschinen, die helfen bessere Entscheidung innerhalb vernetzter Wertschöpfungsketten zu treffen.   

Wer die Lücke zwischen Kreation und Werbemittelproduktion im Marketing mit technologiegestützter Automation von wiederkehrenden Arbeitsroutinen schließen will, ist gut aufgehoben bei den Marketing Engineers der markenmut AG. 

​Mit über 1 Mio. Datenpunkten aus über 150 erfolgreichen Automationsprojekten liefern unsere Playbooks nicht nur branchenspezifische Benchmarks, sondern auch wertvolle Markt-Informationen sowie operative Umsetzungshilfen, die Sie sofort einsetzen können:

In unserer Toolbox finden Sie Benchmarks, Cases, Erfahrungsberichte, Referenzen und Whitepaper rund um die Themen KREATION – AUTOMATION – PRODUKTION. 

Erfahren Sie mehr darüber, wie namhafte Marken und Unternehmen aus Industrie, Touristik, Finance, Tobacco, FMCG und Automotive wiederkehrende Routinen im Marketing automatisiert, datenbasierte und kundenzentrierte Strategien implementiert und die Schlagkraft ihres Vertriebs KI-gestützt erhöht haben.


HIER GEHT ES ZUR TOOLBOX

Für ein erstes Gespräch stehen wir gern zur Verfügung. Nicht automatisiert, sondern ganz persönlich. Nur Mut!

 

HIER UNVERBINDLICH TERMIN VEREINBAREN

Mit unseren vier internationalen marTech Scouts screenen wir nicht nur kontinuierlich den Markt relevanter Toolanbieter, sondern fördern auch aktiv die Entwicklung von Marketing Automation in Forschung, Lehre und Ausbildung. Deshalb sind die Marketing Engineers der markenmut AG im strategischen Kreis des Institut für Sales und Marketing Automation (www.ifsma.de) engagiert.