Bild von Dominik Liss - WordPress Dev
Die Dominik Liss Show WordPress & Business Talks
KI

#012: Was macht eine KI intelligent? | m. Manuel Pasieka

Episode anhören

Überblick

In dieser Episode reden wir mit Manuel Pasieka. Manuel ist Machine Learning Engineer und AI Consultant. Außerdem ist Manuel auch Host des Austrian Ai Podcasts und in dieser Podcast Episode entschlüsseln wir das Buzzword "Künstliche Intelligenz".

In dem Gespräch unterhalten wir uns über folgende Themen:
00:00 Recap
03:10 Intro
06:39 Wie ist AI entstanden?
16:52 AI Hype Cycles (AI Winter Phasen)
26:21 Was macht eine KI intelligent?
35:58 Missverständnisse im Bezug auf AI
39:05 Unterschied zw Machine Learning und Deep Learning 
47:34 Die Zukunft von AI
57:42 Wird AI meinen Job ersetzen?

Gast: Manuel Pasieka
contact@manuelpasieka.com 
https://www.linkedin.com/in/manuelpasieka/

Austrian Ai Podcasts 
https://open.spotify.com/show/2WP0q3AlEeENx5FlWCzjLw
https://podcasts.apple.com/at/podcast/austrian-artificial-intelligence-podcast/id1552827700

// WordPress Community Gruppe //
https://dominikliss.com/community

Host & Gäste

Profilbild von Dominik Liss Host
Dominik Liss WordPress Dev
Profilbild von Manuel Pasieka Gast
Manuel Pasieka Machine Learning Engineer und AI Consultant

Video

Ähnliche Episoden

Cover Image
KI

Welche AI Tools sparen bei WordPress wirklich Zeit? | m. Moritz Bappert

Diese Woche reden wir mit Moritz Bappert über WordPress und KI. Moritz ist WordPress Experte und Host vom WPAI Podcast. 

Episode anhören
Cover Image
KI

WP & KI - Was hilft wirklich? | m. Robert Leitinger

Mittlerweile hat schon jeder ChatGPT verwendet ... es gibt auch schon sehr viele YouTube Videos, zum Thema AI Tools und wie man diese zum Erstellen von Content für WordPress Webseiten verwenden kann.

Episode anhören

Transkript

Künstliche Intelligenz.

Was macht eigentlich eine künstliche Intelligenz, Intelligenz? Das, was wir als Intelligenz und als Maßstab, nimmt man hier den Menschen her, grundsätzlich einmal, verstehen, können wir das nachbauen.

Und das Problem, das ein bisschen Artificial Intelligence immer hatte, war, dass sobald es man geschafft hat, diese Systeme zu bauen, sobald man diese intelligenten Systeme gebaut hat, gab es dann oft einfach die Phase, wo die Leute dann gesagt haben, okay, gut, das funktioniert jetzt, aber wirklich intelligent ist es jetzt trotzdem nicht.

Weißt du ungefähr, oder kann man das irgendwie einschätzen, ob der Hype noch lange andauern wird? Weil gefühlt von dem, was auf Social Media passiert und all diese Sachen, hat er gerade erst mal angefangen, aber der dauert ja schon einige Jahre.

Ist das so, dass wir jetzt gerade am Peak sind, wo dann das wieder nach unten gehen wird und sich stabilisieren wird für einen AI-Winter, bis der nächste Hype kommt? Oder kannst du durchaus sehen, dass es noch weiter steigen wird und sich weiterentwickeln wird, der Hype? Hier zu verstehen war, dass das Problem für Artificial Intelligence immer war, dass auf einer Seite, wie gesagt, das hat schon in den 50er, 60er Jahren begonnen, die Leute waren sehr ambitioniert und haben eigentlich sehr provokante Aussagen getätigt darüber, was sie meinen und was sie in kurzer Zeit auch schaffen werden.

Und bereits in den 50er, 60er Jahren hat man sehr optimistisch, dass man sagt, okay, man kann relativ bald wirklich intelligente Computersysteme bauen.

Und was sich dann irgendwie gezeigt hat, nein, das können wir wahrscheinlich nicht, gab es dann wirklich eine Phase, wo dann wirklich ganz wenig Geld investiert worden ist, die Industrie kein Interesse hatte, Forschungsgelder massiv gekürzt worden sind und Ähnliches.

Also immer diese AI-Winterphasen.

Und ich glaube, es ist nicht so einfach, jetzt wirklich von diesen gleichen Arten von Hype -Cycles zu sprechen.

Ich glaube, dass einfach nur das Maturity-Level von diesen Technologien einfach dann ab 2015 und später einfach so fortgeschritten worden ist, dass sie dann einfach nützliche Tools sind.

Und davor waren es halt einfach eher, ich weiß nicht, in irgendeiner Weise Methoden, die oft einfach nur in sehr spezifischen Bereichen anbettbar waren oder erfolgreich waren.

Aber wie gesagt, ich glaube nicht, dass wir mehr so etwas wie einen AI-Winter sehen werden, in irgendeiner Weise, wie wir es in der Vergangenheit gesehen haben.

Wo die Leute einfach manche Sachen nicht so verstehen, wie sie das verstehen sollten.

Ich meine, das ist natürlich jetzt breiter, da gibt es sehr viele Themen, die in irgendeiner Weise vielleicht irgendwie falsch oder unverstanden sind.

Ich habe mir schon Gedanken darüber gemacht, wie AI den Arbeitsmarkt beeinflussen wird, ob es eine große Revolution sein wird oder ob es jetzt einfach nur Angstmacherei ist und dass sowieso die meisten Arbeitsplätze vielleicht ein bisschen verändern wird, aber die meisten Arbeitsplätze wird es nach wie vor noch geben.

Genaue Zahlen gibt es in diesem Bereich noch nicht, weil eben genau der Bereich General AI, den du jetzt angesprochen hast, daran noch zu neu ist.

Die momentane Vorhersage ist auf jeden Fall aber diese, dass es massiven Einfluss haben wird.

Herzlich willkommen bei der zwölften Episode des Podcasts.

Heute gibt es eine spezielle Episode und zwar geht es um AI und nicht AI in Bezug auf WordPress, sondern allgemein um AI, also Künstliche Intelligenz, weil Künstliche Intelligenz ist ein bisschen so zu einem Passwort geworden, also jeder verwendet es, aber nur die wenigsten wissen, was es eigentlich bedeutet oder was Künstliche Intelligenz ist und was alles dahinter steckt und deswegen besucht uns heute Manuel Pasieka.

Manuel ist Machine Learning Engineer und Host des Austrian AI Podcast und er hat da schon über 40 Experten aus der Branche der Künstlichen Intelligenz interviewt und bevor ich da noch zu viel erzähle, Manuel, hallo, herzlich willkommen.

Könntest du dich bitte vorstellen und den Leuten ein bisschen näher bringen, was du so in deinem Businessleben machst? Natürlich.

Erst einmal vielen Dank Dominik für die Einladung.

Es freut mich heute da zu sein und ein bisschen mehr über mich und über das Thema natürlich Artificial Intelligence oder Künstliche Intelligenz zu sprechen.

Zu meiner Person, wie gesagt Manuel Pasieka mein Name, ich bin als AI-Consultant tätig.

Ich habe im Hintergrund im Softwareentwicklungsbereich ursprünglich mal in parallele und verteilte Systeme und dann mehr in den Datenscience-Projekten bin ich über mehr übergegangen und habe dann einen zweiten Master nachgeholt in Artificial Intelligence und was ich jetzt hauptsächlich tue, ich bin für Unternehmen tätig als Selbstständiger, indem ich diese bei der Planung und der Umsetzung von Machine Learning und Datenscience-Projekte unterstütze und zusätzlich, wie du bereits gesagt hast, bin ich auch Host vom Austrian Artificial Intelligence Podcast, der sich darauf konzentriert, ein bisschen die AI-Landscape in Österreich ein bisschen aufzudecken und hier im Zuge von Interviews, persönlichen Interviews von Experten aus dem akademischen und Industriebereich da ein bisschen Einblick zu geben, was Leute in Österreich tun, was es hier für Forschung und was es für Entwicklungen gibt.

Sehr cool.

Also vielen, vielen Dank, dass du heute da bist und nur um das klarzustellen, falls die Leute wegen einem WordPress-Thema gekommen sind oder falls sich die Leute erwarten, jetzt kommt ein KI-Thema und WordPress-Thema und wie kannst du das am besten verwenden? Also das wird eher nicht passieren, weil es wird eher eine Episode sein, also das Ziel dieser Episode ist einfach so, das Thema künstliche Intelligenz erklären, was es überhaupt bedeutet, damit du das verstehst als Zuschauer und Zuhörer, was überhaupt AI ist, was die Geschichte von AI ist, das Potenzial und wie wird künstliche Intelligenz überhaupt eingesetzt und was alles damit verbunden ist.

Aber nur um das klarzustellen, hast du jemals mit WordPress irgendwas gemacht oder bist du halt wirklich starr in deinem Bereich von Anfang an AI und künstliche Intelligenz? Also wie gesagt, wie ich schon kurz erwähnt habe, ist mein Hintergrund wie gesagt wirklich aus der Softwareentwicklung in verschiedenen Bereichen, aber ich habe selbst noch nie wirklich mit WordPress gearbeitet.

Die Zeit, dass ich etwas mit direkt irgendwie Webfrontend-Bereich zu tun habe, ist schon sehr lange her.

2009, 2010 war das letzte Mal, dass ich ein Projekt in diesem Bereich gearbeitet habe und da war ich auch fokussiert mehr auf den Backend -Bereich.

Also dementsprechend, ich bin mir sicher, es gibt genug Anwendungsmöglichkeiten für AI und speziell generatives AI, das jetzt so gehypt ist im Bereich von WordPress, aber darüber würde ich wahrscheinlich wenig sagen können.

Dann tauchen wir gleich in das Thema AI ein und ich tu mir immer zumindest sehr leicht, um etwas zu verstehen, ist einmal in die Geschichte einzutauchen.

Also könntest du vielleicht kurz zusammenfassen, wie AI entstanden ist, weil jetzt ist es ein großes Buzzword, jetzt verwendet es jede, es verwendet jeder diese AI-Tools, JGBT, wie du gerade gesagt hast, generative AI-Tools, aber das ist ja eigentlich nur ein ganz kleiner Anwendungsbereich von AI und es gibt so sehr, die ganze Welt der künstlichen Intelligenz ist viel, viel größer, aber wie hat das überhaupt angefangen? Natürlich, ich kann es versuchen.

Wie du bereits sagst, natürlich ist der Bereich Artificial Intelligence als Feld, als Forschungsgebiet und ähnliches geht länger zurück, geht zumindest am Anfang des 20. Jahrhunderts zurück, so wie wir es jetzt in einer Art und Weise verstehen würden und grundsätzlich Artificial Intelligence beschäftigt sich wirklich mit dem Entwickeln, dem Verstehen, dem Bauen von Systemen, die intelligent handeln, intelligent sind in weiterer Hinsicht und in einer Art und Weise auch, zumindest, das war am Anfang immer ganz relevant, die Fähigkeit haben, menschliches Verhalten nachzuahmen.

Es ist natürlich die Frage, wo man hier den Anfang setzt.

Wie gesagt, das sind der Bereich selbst, wie gesagt, das Verstehen oder das Nachahmen von intelligenten Systemen geht definitiv auch zurück ein bisschen in die Kubernetik, die sich das quasi noch früher zurück zum Ziel gesetzt hat, auch quasi nicht künstliche Systeme, sondern auch natürliche Systeme zum Beispiel zu verstehen, wie diese kommunizieren und wie diese sich selbst kontrollieren und ihre Umgebung kontrollieren und dementsprechend ist auch der Bereich Artificial Intelligence inspiriert und teilweise situiert sich aus dem Bereich der Kubernetik.

Wenn man aber vom modernen und künstlichen Intelligenz hingeht, dann was es spricht, ist natürlich, dann sind die Founding Fathers oft, wenn zum Beispiel solche Leute wie Alan Turing oder John McCarthy genannt und dann sprechen wir irgendwie von den 50er Jahren des vorigen Jahrhunderts, also um 1950 herum, da gibt es die ersten wirklich Bereiche oder Tätigkeiten, in denen zum Beispiel Leute wie Alan Turing hier fundamentale Arbeit geleistet haben.

Also Alan Turing ist vielleicht einigen Leuten in der Informatik natürlich, sollte er bekannt sein für alle möglichen Forschungen über Computability, also was berechenbar ist, zum Beispiel gemacht, diese Turing-Maschinen und ähnlich sind das quasi, das sind Resultate seiner Tätigkeiten, über was berechenbar ist, was mit den Computerprogrammen zu bestimmen und bearbeitbar ist, aber unter anderem er hat zum Beispiel auch das, was wir heutzutage als Turing-Test kennen oder Imitation Game, wie es ursprünglich mal geheißen hat, wo es darum geht, wie kann zukünftig, wenn man solche intelligenten Systeme baut, wie kann man eruieren, ob diese Systeme intelligent sind und wie kann man sie unterscheiden zwischen einem Menschen und seinem Computersystem und das ist, ich glaube viele Leute haben dieses Imitation oder Turing-Test schon mal gehört, grundsätzlich geht es darum, wenn du sagst, du hast zwei Räume, in einem ist ein Testproband und im anderen ist ein Computersystem oder auch ein Mensch und dieser Testproband soll mit diesem System kommunizieren, also in irgendeiner Weise schreiben oder sprechen, damals war die Idee quasi, dass die Leute in irgendeiner Weise schreiben mit dem System, ob dann der Testproband identifizieren kann, dass auf der anderen Seite im anderen Raum jetzt ein Mensch sitzt oder ein Computer, also quasi das war dieses Imitation Game, das sich Turing damals überlegt hat.

In dem Entsprechung sind das eigentlich viele von diesen Fragestellungen, wie gesagt, kommen bereits aus diesem Bereich aus den 50ern und 60ern und ein bisschen später, wie ich schon erwähnt habe, John McAfee ist auch eine wichtige Person, die ersten, wenn man so will, die ersten Gedanken zu Artificial Intelligence, wo es im Konkreten eben darum geht, dass man sagt, man baut Computersysteme, man hatte eben damals frisch das erste Mal diese Computersysteme wirklich, also die Möglichkeit Computation, Berechnungen schnell, verhältnismäßig schnell, im Verhältnis zu heute natürlich sehr langsam, aber für damals eben, für damalige Verhältnisse sehr schnell umzusetzen, hat man sich gedacht, es würde nicht allzu lange dauern und das ist halt irgendwie so ein bisschen dieses, so ein Running Gag, wenn man so will.

Artificial Intelligence, es hat immer so geheißen, in 20, 30 Jahren oder in 20 Jahren sind wir soweit und wir werden diese künstlichen Systeme haben, deren Kapazitäten denen von Menschen und darüber hinaus eben entsprechen, also das ist immer im Generellen wird das genannt wie AGI, Artificial General Intelligence, hier war quasi immer der Wunsch oder die Idee, können wir wirklich Computersysteme bauen, die mindestens so intelligent sind wie ein Mensch und da war, wie gesagt, bereits in den 50ern hat man versucht, die ersten Systeme zu entwickeln.

Es gab damals ganz bekannte Workshops, wie zum Beispiel den Dharma Workshop 1955 und es war eigentlich, die Leute waren damals sehr ambitioniert und man hat eigentlich gedacht, okay, es würde wahrscheinlich nicht mehr 10 oder 20 Jahre brauchen, um die Systeme zu entwickeln, aber nur um ein Gefühl zu bekommen, was sind so Themen, mit denen sich die Leute damals beschäftigt haben, also da redet man von im Verhältnis zu heute zu solchen Systemen, wo es zum Beispiel darum ging, wie kannst du bestimmte Planungen automatisieren, also die ersten Anwendungen in der Art und Weise kommen eigentlich sogar aus dem militärischen Bereich und da ging es zum Beispiel um einerseits solche Sachen, wie du musst Versorgungslinien für das Militär organisieren und dementsprechend, wie musst du bestimmte Ressourcen zu einer Front bringen und ähnliches und das zu organisieren oder das optimal zu gestalten, zum Beispiel damit hat man versucht, die ersten Computersysteme zu entwickeln und in irgendeiner Weise intelligent handeln und das waren die ersten Versuche, Artificial Intelligence auch zu entwickeln, dass du sagst, okay, du hast Computerprogramme, denen sagst du zum Beispiel, okay, du hast deine bestimmten Verteilungen, also du hast deine Front, du hast deine militärischen Truppen dort, du hast bestimmte Versorgungslinien, wie musst du jetzt Ressourcen optimal zur Front bringen, das sind bereits die ersten intelligenten Systeme oder andere Systeme, die es gab, als noch Teil des zweiten Weltkriegs, man zum Beispiel Raketensysteme hatte natürlich, es ging darum, was gibt es für Möglichkeiten, dass man zum Beispiel Raketenabwehrsysteme entwickelt, welche im besten Falle automatisch sind, zum Beispiel Raketen abzuschießen und ähnliches.

Das war damals eine sehr starke Mischung aus Kybernetik und dem Beginn von Artificial Intelligence, dass man sagt, okay, was gibt es für Möglichkeiten, solche Systeme zu automatisieren und da irgendwie nützlich zu sein und wie gesagt, das war die militärische Anwendung und kurz danach ging es einfach darum, okay, und das war demnächst rein akademisch, weil es gab, wie gesagt, noch da noch nicht sehr viel, sehr wenige im Businessbereich, da hat man sich bestimmte Ziele gesetzt, wie zum Beispiel, okay, man möchte ein Schachprogramm entwickeln, welcher Westerfunk, welche einen Menschen im Schach schlagen können, also das waren zum Beispiel die Ideen damals noch in den 50ern und in den 60ern.

Kurze Unterbrechung in eigener Sache, deswegen das Hemd, und zwar geht es um die WordPress-Community -Gruppe.

Wir haben jetzt eine Community-Gruppe auf Discord und dort kannst du Antworten auf deine WordPress -Fragen finden, du bekommst konstruktives Feedback zu deinen WordPress-Projekten und es gibt regelmäßige Gesprächsstunden, die ich dort posten werde, dort kannst du live deine Fragen stellen oder einfach teilnehmen und zuhören, welche Fragen andere Teilnehmer haben.

Dort werden teilweise auch Podcast-Gäste sein, andere Experten aus der WordPress-Branche, also da wirst du wirklich cooles Feedback bekommen und coole Antworten auf deine Fragen und das alles ist kostenlos.

Das Einzige, was du machen musst, du musst unten auf den Link klicken, dort kommst du zu der Seite, wo du dich anmelden kannst und dann bekommst du die gesamte Anleitung, wie du in der Community-Gruppe beitreten kannst und jetzt geht es weiter mit dem Video.

Ja, das mit dem, was ich megainteressant jetzt gefunden habe, ist wahrscheinlich so eine Kleinigkeit, die ich mir da rausgesucht habe, wo du das mit den Soldaten beschrieben hast, wie schickt man das Equipment oder je nachdem, was die Soldaten brauchen, dann an die Front, also möglichst effizient und möglichst sicher.

Das hat mich ein bisschen so erinnert, auch weil du vorher kurz ein natürliches System erwähnt hast, also ist das ein gutes Beispiel für so ein natürliches System, wo man sich, ich sage jetzt mal, Intelligenz abschauen könnte, zum Beispiel so, wie das Bahnnetz in Tokio effizienter gestaltet wurde, wo einfach ein Schleimpilz verwendet wurde und das Netz von Tokio als ein Modell aufgebaut wurde und der Pilz hat sich immer den effizientesten Weg gesucht, um da durchzunavigieren.

Ist das so etwas, wo man so natürliche Systeme beobachtet und dann von denen lernt, also ist es das, was du darunter gemeint hast oder kommt etwas anderes? Ja, ich persönlich kenne das Beispiel nicht, aber es hört sich auf jeden Fall sehr, sehr sinnvoll an.

Also in dem Bereich, den du ansprichst, ist wie gesagt eben genau dieser Kybernetik-Anteil.

Also Kybernetik, wie gesagt, ist das Verstehen von komplexen Systemen, wie diese sich kontrollieren und wie die sich austauschen mit der Umgebung und das, was du beschreibst quasi, dass man sagt, man verwendet eben auf einem Modell zum Beispiel so ein natürliches System, versteht, wie kommen irgendwie Entscheidungen oder wie verhält sich dieses natürliche System, lässt sich davon inspirieren und schaut, wie man das nachbauen kann, wie gesagt, in Computersystemen.

Das ist eben genau diese Kombination von Kybernetik und Artificial Intelligence gewesen, die einfach massiv in den 60er Jahren und ähnliches betrieben worden ist.

Aber grundsätzlich ist das eben genau eben dieser, wir werden vielleicht ein bisschen später über Deep Learning reden und Neural Networks, auch da quasi, Neural Networks und ähnliches als Technologie sind quasi inspiriert von natürlichen Systemen.

Und wie gesagt, das ist definitiv etwas, was immer wieder passiert ist, dass man sagt, okay, es gibt zumindest ein Beispiel für intelligente Systeme, die Menschen, deswegen quasi im nachvollziehbaren Art und Weise, wie Menschen funktionieren oder wie andere intelligente Systeme in Natur funktionieren, dann versteht man auch in einer Art und Weise, wie man diese vielleicht irgendwie in Computersystemen nachbauen könnte.

Und weil wir jetzt so von verschiedenen Zeitspannen geredet haben, es gab ja auch, so AI kommt ja allgemein so in Wellen.

So wie jede neue Technologie gibt es Hypes und dann sinkt der Hype wieder und danach baut sich der Hype wieder auf.

Und soweit ich das herausgefunden habe, gab es den ersten AI Hype Ende der 50er, Anfang der 60er Jahre.

Dann gab es ein bisschen so einen AI Winter, wenn ich das so beschreiben kann.

Der nächste Hype ist dann der 80er und bis Anfang 90er gekommen.

Und dann der dritte Hype, in dem sind wir gerade, der hat in den 10er Jahren, klingt so komisch, wenn wir es noch nicht so verwenden, aber am Anfang der letzten Dekade hat es angefangen.

Und der Hype, der geht noch bis heute.

Also es ist ein ziemlich langer Hype, wenn ich das korrekt recherchiert habe.

Und weißt du ungefähr, oder kann man das irgendwie einschätzen, ob der Hype noch lange andauern wird, weil gefühlt von dem, was auf Social Media passiert und all diese Sachen, hat er gerade erst mal angefangen.

Aber der dauert ja schon einige Jahre.

Ist das so, dass wir jetzt gerade am Peak sind, wo dann das wieder nach unten gehen wird und sich stabilisieren wird für einen AI Winter, bis der nächste Hype kommt? Oder kannst du durchaus sehen, dass es noch weiter steigen wird und sich weiterentwickeln wird, der Hype? Natürlich quasi die Zukunft fällt uns eigentlich immer wieder schwierig, aber vielleicht ganz kurz zu diesem Hype und diesen Hype-Juggeln da ein bisschen.

Ja, also Artificial Intelligence war definitiv ein Feld, das sehr viel Bust and Boom geschehen hat.

Wie du schon angesprochen hast, es gab auf jeden Fall Phasen, in denen Artificial Intelligence sehr populär war und wieder gefolgt worden sind von Phasen, in denen es sehr wenig in erster Weise Forschung und Ähnliches in diesem Bereich gab.

Ich glaube, hier zu verstehen war, dass das Problem für Artificial Intelligence immer war, dass auf einer Seite, wie gesagt, das hat schon in den 50er, 60er Jahren begonnen, die Leute waren sehr ambitioniert und haben eigentlich sehr provokante Aussagen getätigt darüber, was sie meinen, was sie in kurzer Zeit auch schaffen werden.

Und bereits in den 50er und 60er Systemen war man sehr optimistisch, dass man sagt, okay, man kann relativ bald wirklich intelligente Computersysteme bauen.

Und dass sich dann irgendwie gezeigt hat, nein, das können wir wahrscheinlich nicht, gab es dann wirklich eine Phase, wo dann wirklich ganz wenig Geld investiert worden ist, die Industrie kein Interesse hatte, Forschungsgelder massiv gekürzt worden sind und Ähnliches.

Das sind immer diese AI-Winterphasen.

Und es war dann meist einfach so, dass es dann einfach lange irgendwie still gewesen ist und es sind einzige Forschungsgruppen haben weiter geforscht, das Militär hat kleinere Projekte in der Art und Weise gehabt, bis dann quasi irgendwie eine bestimmte Technologie gefunden worden ist oder einen bestimmten Anwendungsfall.

Und wie du schon gesagt hast, in den 50er und 60er Jahren war das eben so stark, da hat man symbolgetriebene AI gemacht und hat Systeme versucht zu entwickeln, die intelligent oder kreativ sind in der Art und Weise oder intelligente Handlungen tun können.

Und zum Beispiel, dann hat man gesehen, okay, wir kommen da in den Limit, wir schaffen es nicht, Systeme zu bauen, die wirklich selbstständig intelligent handeln und deswegen ist dann wieder alles eingebrochen.

Und in den 80er Jahren ist es dann zum Beispiel sogenannte Expertensysteme sind sehr populär geworden.

Expertensysteme sind Systeme, wo eine Kombination von Mensch mit einem Experten in Kombination Probleme versuchen zu lösen und in welchem das Computersystem als unterstützend wirkt.

Und das war zum Beispiel ein Bereich, den man versucht hat in der Medizin im Bereich oder in anderen analytischen Bereichen diese Computersysteme zu entwickeln.

Und da war auch kurz die Hoffnung, ja, wenn wir das schaffen quasi in der Art und Weise, dann hätte man sehr viel Potenzial da.

Es hat sich aber gezeigt, dass dann in diesem Falle zum Beispiel diesen Expertensystemen, die oft in der Medizin da versucht wurden, das anzuwenden, wo man sagt, in der Medizin gibt es Fachwissen, was die Menschen halt in der Art und Weise vielleicht nicht merken können.

Ein Computersystem wird ja als Assistent perfekt, dann kannst du das ganze Fachwissen beibringen und dann kann quasi ein Arzt mit so einem Computersystem in Kombination sehr effektiv sein.

Es hat sich halt herausgestellt, dass es sehr schwierig ist, dieses ganze Fachwissen wirklich zu erfassen, einzuspeichern, dass dem Benutzer irgendwie zugänglich ist zu machen.

Und dementsprechend war dann wieder große Enttäuschung und dann war alles weg.

Und die ganzen Investitionen in der Schiene sind dann in der Art und Weise wieder rund zurückgegangen.

Der ganze Boom, in den letzten 10, 15 Jahren hat sich halt auch wieder ein Technologiebereich entwickelt.

Also in 2012 ist AlexNet damals publiziert worden.

Das ist eben die momentane oder die damalige Weiterentwicklung von Neural Networks.

Neural Networks sind ein Algorithmus, sind ein Subgebiet im Bereich von Artificial Intelligence, mit dem man Modelle bauen kann, das ist eine Technologie, mit der du Computermodelle bauen kannst, die einerseits zur Vorhersage dienen.

AlexNet im Speziellen zum Beispiel war im Bildbereich.

Das war auch der erste Bereich, in dem diese Deep-Learning-Technologie sehr, sehr erfolgreich war.

Und die hat dabei geholfen, zum Beispiel Bilder zu klassifizieren.

Wenn du sagst, du hast einfach nur ein Bild und du kannst erkennen, dieses Bild zum Beispiel zeigt ein Auto oder es zeigt ein Boot oder es zeigt eine Katze oder Tiere.

Also das war in der Image Analysis-Bereich, war der Bereich, wo Deep-Learning das erste Mal jetzt wieder Fuß gefasst hat, weil die Technologie an sich ist schon viel älter.

Die ersten Rosenblatt zum Beispiel war einer der ersten Forscher, die schon bereits in den 50er Jahren mit den Ursprungsversionen von neuronalen Netzwerken gearbeitet haben.

Aber diese Technologie hat sich nicht besonders erfolgreich herausgestellt zur damaligen Zeit.

Und dann 2012, wie gesagt, kam dann AlexNet und das waren dann einige Änderungen, die da hineingegangen sind und plötzlich war es erfolgreich.

Und plötzlich hat sich aus diesem Bereich von der Bildanalyse hat sich dann gezeigt, wir können diese Deep-Neural-Networks für ganz, ganz viele Bereiche anwenden.

Und dann ist dann ganz langsam dieser Boom gekommen.

Bis zu 2015 hat sich dann gezeigt, dass Deep -Neural-Networks besser sind und eine sehr generische Lösung sind für ganz, ganz, ganz viele Bereiche.

Davor gab es, wie gesagt, war das Feld sehr fragmentiert.

Du hattest quasi immer so viel, du hattest die Möglichkeit, verschiedene Modelle für verschiedene Problemstellungen zu bauen mit verschiedenen Technologien.

Aber dann ab 2015 definitiv war dann wirklich alles Deep-Learning.

Also da war dann total Durchbruch, dass mit diesen neuronalen Netzwerken, die groß genug sind, kannst du eigentlich jedes Problem, das wir traditionell in irgendeiner Weise mit anderen Technologien versucht zu lösen, kannst du damit lösen.

Und dementsprechend gab es da immer mehr Adaption auf diesem Feld.

Und ich würde mal sagen, das Kritische, was auch dann wirklich aufgekommen ist, dass in dieser Zeit waren es dann wirklich kommerzielle Anwendungen in einer Art und Weise wirklich möglich und auch sinnvoll.

Es gibt es natürlich jetzt mehrere Fragestellungen.

Warum ist es ab dann eigentlich erst so sinnvoll gewesen? Wie gesagt, es ist die Technologie besser geworden, aber ich glaube, es ist auch einfach nur der Stand der Digitalisierung dann einfach so weit fortgeschritten gewesen.

Und es war dann einfach so einfach, diese Systeme zu nützen und in vorhandene Unternehmen zu integrieren und Business-Prozesse, sodass dann wirklich einfach irgendwie einfach den Wert, den Zusatzwert gebracht haben.

Und dementsprechend, ich glaube, es ist nicht so einfach jetzt wirklich von diesen gleichen Arten von Hype-Cycles zu sprechen.

Ich glaube, dass einfach nur das Maturity-Level von diesen Technologien einfach dann ab 2015 und später einfach so fortgeschritten worden ist, dass sie dann einfach nützliche Tools sind.

Und davor waren es halt einfach eher, ich weiß nicht in welcher Art und Weise, Methoden, die oft einfach nur in sehr spezifischen Bereichen anwendbar waren oder erfolgreich waren.

Aber seit diesem Zeitraum ist generelle Technologie einfach sinnvoll.

Es ist natürlich jetzt schwer, das irgendwie zu vergleichen, aber ich weiß nicht, also zum Beispiel Datenbanksysteme werden, wie gesagt, sind auch schon sehr alte Systeme, aber sind natürlich sehr, sehr nützliche Systeme.

Und es gab auch immer wieder Phasen, in denen verschiedene Datenbanksysteme mehr oder weniger genützt worden sind, aber niemand würde jetzt davon ausgehen, dass jetzt quasi in welcher Art und Weise in Zukunft keine Datenbanken mehr benötigt werden.

Es sind also eine fundamentale Technologie, eine fundamentale Aspekte quasi, dass das nicht mehr weggeht.

Und ich würde sagen, ähnlich steht es da von meiner Perspektive auch mit dem, was wir generell als Artificial Intelligence -Systeme haben.

Also sie werden immer weiter integriert in Software, in Unternehmen.

Und es ist dann mehr die Frage quasi, welche signifikanten Sprünge gibt es dann in der Entwicklung hier, um das voranzutreiben.

Aber wie gesagt, ich glaube nicht, dass wir mehr so etwas wie einen AI-Winter sehen werden, in der Art und Weise, wie wir es in der Vergangenheit gesehen haben.

Weil jetzt ist einfach diese Technologie so weit fortgeschritten, dass sie einen wirklichen Benefit bringt für Unternehmen.

Und dementsprechend sind Unternehmen haben Interesse daran, dass sie das in Ordnung vereinfachen für sie und in ihre Prozesse integrieren.

Ich finde es super, mit Leuten zu sprechen, die selbst einen Podcast haben.

Weil du greifst das Thema so schön auf und dann fasst es in einem Bogen-Satz oder Bogen -Argument wieder zu der Anfangsfrage zurück.

Also das finde ich super, wie du das aufbaust und dass es halt alles so schön verpackt weitergegeben wird.

Dann würde ich gerne in das Thema als nächstes eintauchen, um AI an sich besser zu verstehen.

Also künstliche Intelligenz.

Was macht eigentlich eine künstliche Intelligenz, Intelligenz? Wir haben es schon ein bisschen angesprochen, aber könntest du es vielleicht noch kurz so zusammenfassen, damit man die Intelligenz hinter diesen AI -Tools, Modellen und all diesen Sachen einfach versteht, was man unter Intelligenz verstehen sollte, unter Maschinen.

Also wie gesagt, das Ziel von Artificial Intelligence war von Anfang an in irgendeiner Art und Weise, das was wir als Intelligenz und als Maßstab, nimmt man hier den Menschen her, grundsätzlich einmal, verstehen, können wir das nachbauen.

Und das Problem, das ein bisschen Artificial Intelligence immer hatte, war, dass sobald es man in irgendeiner Art und Weise geschafft hat, diese Systeme zu bauen, sobald man diese intelligenten Systeme in irgendeiner Art und Weise gebaut hat, gab es dann oft einfach die Phase, wo die Leute dann gesagt haben, okay, gut, das funktioniert jetzt, aber wirklich intelligent ist es jetzt trotzdem nicht.

Also nur als Beispiel hier, zwei triviale Sachen.

Also zum Beispiel Google Maps.

Das was wir jetzt als Google Maps haben, diese Fragestellungen, das ist in irgendeiner Art und Weise ein Optimierungsproblem, dass du sagst, du möchtest von Punkt A zu Punkt B kommen, du hast eine Vorstellung davon, was für Straßen es dazwischen gibt.

Das ist zum Beispiel etwas, wo man in den 50ern und 60ern, wie ich am Anfang erwähnt habe, auch mit dieser Versorgungslinien von Armeen und Ähnliches, das war ein Thema, wo man gesagt hat, das ist künstlich intelligent.

Wie entscheide ich, wie komme ich am besten effizient von A nach B? Und das ist in irgendeiner Art und Weise gelöst worden und heutzutage würde niemand wirklich sagen, okay, Google Maps ist artificial intelligence.

Also das ist einfach so präsent in der Welt, dass das dann einfach, wie gesagt, da nicht mehr wahrgenommen wird, das artificial intelligence.

Oder ein zweites Beispiel wäre zum Beispiel Schach.

Also wie gesagt, in den 50ern und 60ern war Schach.

Man hat eigentlich gedacht, würde man es schaffen, ein Computersystem zu bauen, das Schach spielen kann und besser ist als ein Mensch, hätte man alle möglichen Probleme lösen müssen oder muss man alle möglichen Probleme lösen auf diesem Weg dorthin.

Dann hat man intelligente Systeme.

So, wir haben jetzt, ich weiß jetzt nicht, wann Big Blue auswendig jetzt Kasparov geschlagen hat.

Ich glaube, es war in den Anfängen 2000er Jahre.

Wir haben die Systeme entwickelt und mittlerweile gibt es so viele super intelligente Schachsysteme und ich bin mir sicher, die wenigsten Leute würden jetzt wirklich an ein großes artificial intelligence denken, wenn sie an diese Schachcomputer denken.

Dementsprechend ist, wie gesagt, da immer ein bisschen so die Schwierigkeit.

Sobald wir Systeme entwickelt haben, die wirklich irgendwie bestimmte Ziele erreichen, ist oft das Resultat davon, dass man jetzt nicht sagt, okay, die sind jetzt wirklich, wir haben artificial intelligence erreicht, sondern man sagt einfach nur, okay, das ist jetzt eine einfache Technologie und es bleibt trotzdem bei einem Tool.

Was wir in den letzten Jahren ein bisschen anders erlebt haben, ist, oder im Speziellen jetzt mit diesem Bereich, wo wir diesen Bereich finden von Natural Language Processing, ist das, was wir jetzt im Konkreten in den letzten Jahren, zum Beispiel mit JGPT und ähnliches seit Ende letzten Jahres, ist, dass diese Computersysteme auf den Menschen einen anderen Eindruck hinterlassen oft.

Also Natural Language Processing, vielleicht da ein bisschen Hintergrund zu geben, ist auch ein Bereich, der bereits sehr, sehr viel länger, oder also einer der Ursprungsbereiche, den es auch im artificial intelligence System gibt.

Es gab schon in den 60er Jahren zum Beispiel Systeme, die gebaut worden sind, um mit Menschen zu kommunizieren.

Ich habe zum Beispiel eigentlich auch diese Woche bei einem Kunden eine Vorlesung quasi gegeben zu dem Bereich Language Models und nur als kurzer Ausblick zum Beispiel Elisa, das ist ein so gedachter Chatbot gewesen, der in den 60er Jahren im MIT entwickelt worden ist, der dazu entwickelt worden ist, zum Beispiel sich als eine Art von Therapeut, sich mit Leuten auseinanderzusetzen.

Also Leute hatten damals die Möglichkeit, dass sie über ein Chatterminal mit dem Computersystem reden und dieses Computersystem als Therapeut ihnen geholfen hat, über ihre Probleme zu reden und ähnliches.

Und das waren sehr einfache Systeme damals, aber sie hatten zum Beispiel da schon irgendwie den Aspekt, dass die Leute das Gefühl hatten, da ist eine wirkliche Intelligenz dahinter.

Deswegen hängt es ein bisschen so ab, wie das Interface quasi ist oder welchen Teil der Kommunikation oder die Interaktion zwischen Menschen und Computersystem.

Ich glaube halt speziell, dass etwas wie Sprache etwas ist, wo die Menschen schnell das Gefühl davon haben, sie reden oder sie kommunizieren mit einem intelligenten System.

Sobald es hier die Möglichkeit gibt, entweder über gesprochene Sprache oder auch geschriebener Art und Weise sich auszutauschen und das, was die Leute in irgendeiner Art und Weise, die Interaktion wahrnehmen, wenn diese für den Menschen natürlich ist, dann haben die Leute oft das Gefühl sofort, okay, da ist wirklich Intelligenz dahinter und da ist vielleicht irgendein Aspekt wie Persönlichkeit und Bewusstsein dahinter.

Und dadurch, dass seit Ende letzten Jahres durch GPT hier wirklich signifikante Verbesserungen stattgefunden haben, glaube ich, ist das jetzt einerseits mal für die Leute bewusster, aber andererseits auch quasi genau in der Form von Interaktion in der Wahrnehmung plötzlich vom Gefühl her wesentlich intelligenter.

Was wir, wie gesagt, schon aber seit den Anfang 2012er Jahren definitiv haben, ist, dass solche Computersysteme, die zum Beispiel speziell in der Bildanalyse tätig sind, also wenn es darum geht eben, wie ich schon gesagt habe, damals als AlexNet und ähnliches, Bilder zu erkennen, da haben wir schon viel, viel früher, also bereits, wie gesagt, ab 2015, 16 ungefähr Computersysteme entwickelt, deren, die in der Erkennung von Bildern besser sind als Menschen.

Also die haben schon damals quasi super natural intelligence zeigen können, in der Hinsicht quasi wirklich die Möglichkeit zu sagen, okay, wenn du sagst, du hast jetzt zum Beispiel, das gab es ganz typisch, du gibst dem Computerprogramm die Aufgabe, es soll zwischen 100 verschiedenen Hund- oder Hundearten unterscheiden und du vergleichst das mit einem, also quasi einem normalen Menschen oder einem Experten auf diesem Gebiet, dann waren schon bereits damals diese Systeme besser zu unterscheiden, um was für eine Hunderasse sich da wirklich handelt, als zum Beispiel viele Experten.

Und damit haben wir quasi schon super human intelligence in bestimmten, und das sind das wichtige Teilbereichen erledigt.

Das ist dann, da redet man oft, dann hat man von narrow artificial intelligence, hat man gesprochen, oder man spricht davon, man sagt, man hat zum Beispiel Computersysteme entwickelt, welche in spezifischen Aufgabenbereichen besser sind als Menschen.

Aber was jetzt, wie gesagt, offen immer noch ist oder offen bleibt, ist das Thema von general artificial intelligence, wenn man quasi davon spricht, Computersysteme, die eben nicht nur spezifisch in einem Bereich gut funktionieren, sondern wie auch oft Menschen, wie gesagt, in einem sehr breiten Bereich, weil das ist halt, wie gesagt, immer noch in irgendeiner Weise das Ziel, wo AI-Forschung hingehen will, dass man sagt, man hat Computersysteme, welche in sehr vielen verschiedenen Bereichen intelligent sich verhalten können, neue Aufgaben lernen, diese umzusetzen und ähnliches.

Und das war, ist immer ein Bereich, in dem viel erforscht worden ist, aber nicht unbedingt sehr erfolgreich.

Was wir definitiv jetzt aber gesehen haben, das ist in den letzten Jahren da etwas, dass es da Fortschritte gab und interessanterweise sind eben genau diese Sprachmodelle, wie auch JTPT, interessanterweise fähig oder in der Lage, dass sie in bestimmten Bereichen Fortschritte machen oder erfolgreich sind, in denen die vorherigen Systeme nicht waren.

Also, wenn es jetzt zum Beispiel darum geht, Reasoning zu betreiben, wie es im Englischen heißt, also quasi hier Schlussfolgerungen zu ziehen, das ist ein Bereich der Informationverarbeitung oder eine Art, in dem die Systeme in der Vergangenheit sehr oft sehr schlecht waren.

Dass du, wenn du sagst, du gibst einem Computersystem, sagen wir mal, seine Aufgabe oder bestimmte Informationen und es soll Schlussfolgerungen daraus ziehen, diese Informationen verarbeiten, also intelligent irgendwie verarbeiten, dann waren unsere Systeme oft, haben nicht besonders gut funktioniert oder wenn sie funktioniert haben, dann nur in ganz spezifischen Bereichen.

Und man sieht jetzt zum Beispiel, dass jetzt diese neuen Sprachmodelle, die sich entwickelt haben, dass die viel generischer sind.

Also, wenn, wer jetzt im Moment mit JTPT da ein bisschen Experimente schon gemacht hat, wie gesagt, es gibt jetzt sehr viele Plattformen, wo man kostenlos mit diesen Chatmodellen und quasi im Gespräch treten kann, dann sieht man, dass diese Modelle auf sehr vielen Bereichen sehr viel zu sagen haben, aber auch, wie gesagt, fähig sind, logische Schlussfolgerungen und ähnliches zu ziehen.

Und dementsprechend ist es definitiv so, dass wir jetzt angekommen sind bei Systemen, die das Potenzial haben, viel von dem zu erfüllen, wo wir bis jetzt immer gedacht haben, das wird sehr, sehr lange dauern, bis wir da hinkommen und das für viele Menschen wirklich die Quintessenz von intelligenten Systemen ist.

Und was sind dann so die gängigen Missverständnisse von AI? Also, wenn du so mit deinen Kunden sprichst, weil du am Anfang gesagt hast, dass du AI-Consultant bist für deine Kunden, was sind so die gängigen Missverständnisse, die du siehst, wo die Leute einfach manche Sachen nicht so verstehen, wie die das verstehen sollten? Das ist natürlich jetzt breit, da gibt es sehr viele Themen, die vielleicht falsch oder unverstanden sind.

Wie gesagt, ich glaube, vielleicht ein Themenbereich, in dem die Computersysteme sich sehr anders verhalten, als es irgendwie ein Laie verstehen würde, war deren Genauigkeit und deren Fähigkeit dazu, sich neuen Problemen zu stellen.

Was ich damit meine ist, wie gesagt, dieses Narrow AI hat gezeigt, dass sie sehr, sehr gut sein können für bestimmte Bereiche, aber dass diese Bereiche dann oft nicht sehr oder Systeme nicht besonders flexibel waren.

Sprich, wenn du zum Beispiel jetzt ein Bildtraining hast oder ein Modell, das ein Bild klassifizieren kann, dann sind diese Modelle sehr gut Bilder zu klassifizieren, die oft ähnlich sind zu den Bildern, die sie in ihrer Trainingsphase, also wir haben nicht darüber gesprochen, aber grundsätzlich diese Maschinen Modelle lernen aus Daten heraus und um diese zu bauen, braucht man sehr viele Beispieldaten und diese Maschinen Modelle lernen selbstständig, die wichtigste Information aus diesen Daten heraus zu extrahieren und damit dann zum Beispiel Aufgaben zu lösen, wie zum Beispiel das Erkennen von einem Bildinhalt und die Schwierigkeit ist oft, dass für einen Menschen, wenn zum Beispiel die Bilder leicht anders sind oder anders sind, dass sie es in Trainingszeiten gesehen haben, es trotzdem für den Menschen leicht zu erkennen ist, was der Inhalt seines Bildes ist, aber diese Computersysteme, diese Bilderkennungssysteme, dann oft wirklich, wirklich schlecht reagieren darauf.

Das bedeutet, dass sie in der Hinsicht sehr, also dass sie wesentlich unflexibler sind, als viele Laien davon ausgehen würden.

Oft zeigt man dann eben die Performance auf bestimmten Bildern, man sieht zum Beispiel dieses System erkennt 99 Prozent aller Bilder perfekt und dementsprechend würden dann auch Laien gehen, okay, wenn ich jetzt eine leicht andere Brille dann habe, dann habe ich vielleicht nur noch 95 Prozent oder 90 Prozent Genauigkeit, aber dann plötzlich haben diese Systeme jetzt wirklich eine Genauigkeit, die vielleicht nur noch bei 20 Prozent liegt.

Also die Flexibilität dieser Systeme auf geänderte Umgebungen und sich zu reagieren, das ist dann oft, wo Kunden sehr überrascht sind, dass das nicht funktioniert.

Das ist eben genau der Bereich von Narrow AI.

Weil jetzt haben wir schon ein paar Mal, hast du den Begriff gesagt, Machine Learning, Deep Learning und das sind auch so Buzzwörter, die einfach so manchmal verwendet werden, aber das ist eindeutig ein Bestandteil der künstlichen Intelligenz.

Kannst du mal vielleicht erklären, was die Unterschiede zwischen Machine Learning und Deep Learning sind, wie die sich voneinander unterscheiden und welche Rolle die beiden Begriffe bei AI-Systemen spielen? Gerne, also Machine Learning, also grundsätzlich, wenn man das ein bisschen so strukturiert, dann hat man den Überbegriff Artificial Intelligence.

Artificial Intelligence wie gesagt mit der Zielsetzung, okay, wir bauen intelligente Systeme.

Jetzt gibt es die verschiedenen Möglichkeiten intelligente Systeme zu bauen und ganz trivial umgesetzt gibt es vielleicht größere Teilbereiche.

Das eine ist ein bisschen so, was den Bereich Symbolic AI und der andere Bereich geht eher quasi in den Bereich Machine Learning.

Was damit gemeint ist, alles was irgendwie Symbolic AI betrifft, ist die Idee dahinter, dass man sagt, wir als Mensch verstehen das Problem, das wir lösen wollen und wir können es beschreiben und können die Lösung in einer Art und Weise niederschreiben.

Das ist in den ersten Formen von Artificial Intelligence in den 50ern und 60ern und auch danach gewesen, dass man sagt, man beschreibt im System, okay, das ist das Problem, das es lösen soll.

Wir kennen quasi die Lösung und wir verwenden nur das Computersystem, dass das ausführen soll.

Und der andere Zweig ist dieser Machine Learning Zweig.

Dieser Machine Learning Zweig hat eine andere Herangehensweise.

Die Herangehensweise ist, dass man sagt, wir wissen nicht genau, wie man diese speziellen Probleme löst.

Wir bauen aber Systeme, welche anhand von Daten lernen, das Problem zu lösen.

Deswegen heißt es auch Machine Learning, weil die Maschine quasi selbstständig lernt, aus den Daten, die sie zur Verfügung stellt, das Problem zu lösen.

Was wir können, ist quasi, wir wissen, wir stellen ihnen den Lernalgorithmus zur Verfügung.

Die Idee ist dahinter, dass man sagt, um Probleme zu lösen, musst du halt auch lernen können.

Das ist eine fundamentalere Aufgabe, nämlich das Lernen generell.

Das ist der Algorithmus, den wir vorgeben und mit diesem vorgegebenen Algorithmus lassen wir das System selbstständig lernen, aus den Daten und Interaktionen mit seiner Umgebung.

Das ist Machine Learning und ein Sub-Bereich, ein Teilbereich von dem ist Deep Learning.

Machine Learning, wie gesagt, lernt, die Systeme lernen aus Daten und Deep Learning ist eine Weiterentwicklung von Neural Networks und das ist ein bestimmter Algorithmus, mit dem Netzwerke trainiert werden, Entscheidungsnetzwerke, da verwendest du in den meisten Fällen einfach Daten und diese Entscheidungsnetzwerke finden selbstständig mit einem Trainingsalgorithmus heraus, wie müssen sie zusammengesetzt werden, wie müssen sie parametrisiert werden, so dass sie die gestellte Aufgabe lösen können.

Also Artificial Intelligence, Machine Learning ist ein Unterfeld und Deep Learning ist ein bestimmter Algorithmus.

Jetzt haben wir sehr viel über AI gelernt und bei mir raucht schon ein bisschen der Kopf, weil es für mich lauter neue Themen sind und das vielleicht ein bisschen aufzulockern.

Kannst du uns vielleicht ein paar, oder kannst du dich an eine Story erinnern, die du erlebt hast, die einfach sehr, sehr in Bezug auf Artificial Intelligence sehr abstrakt war oder wo du dich gewundert hast oder solche Momente, wo du einfach baff warst, so, boah, das kann man mit AI auch machen, oder was waren so die komischsten, lustigsten Situationen, die du in der AI-Welt erlebt hast? Kannst du dich da an so ein paar Storys erinnern? Hm, müsste ich nachdenken jetzt da.

Komische und lustige Situationen.

Also ich kann mich erinnern, als ich das erste Mal mich mehr mit dem Thema beschäftigt habe, das war im Jahr 2012 herum, da war es für mich einfach, damals habe ich schon in diesem Bereich, ich habe damals schon im Bereich Bildanalyse ein bisschen was gemacht und ich kann mich erinnern, das waren diese ersten Wow-Momente, also dann diese, wenn man so will, die Deep Learning-Systeme, die in der ersten Generation rausgekommen sind, die es dann geschafft haben, wirklich Bildererkennung zu machen, besser als alles andere, was man gesehen hat, auch besser als Menschen, das war ein Wow-Moment und dann sicher ein zweiter Moment, wo es sehr interessant war, war der Beginn von Generative AI, also Generative AI ist ein Überbegriff, bei dem es darum geht, mit Computersystemen Inhalte zu generieren, die Bilder sein können, Ton und ähnliches und da gab es auch die ersten wirklichen interessanten Entwicklungen von NVIDIA, NVIDIA war damals definitiv führend gewesen, auch in der Forschung in diesem Bereich und sie haben zum Beispiel das erste Mal so menschliche Portraits und Bilder von Menschen erstellt und ich kann mich erinnern, das war auch sehr beeindruckend, das war dann das erste Mal, wo du dann plötzlich irgendwie von einem Computersystem Bilder erstellt bekommen hast, oder von Menschen, die so realistisch und so echt gewirkt haben, dass du gesagt hast, okay, das ist einfach nur ein Foto, das ist von einem echten Menschen und da quasi dann zu wissen, okay, nein, das ist jetzt quasi computergeneriert und diese Beziehung gab es in dem Sinne nicht, obwohl es halt wie gesagt einfach nur ausgeschaltet wie ein normales Foto, ich glaube, das war für mich sehr inspirierend.

Also kurz zusammenfassend, das, was wir bis jetzt gesagt haben, also die AI-Systeme oder die, bitte korrigiere mich, wenn ich deinen Begriff falsch verwende, also die AI-Systeme und die Modelle, die sind auf bestimmte Use Cases trainiert, also die sind sehr spezialisiert, indem wir sie machen und die meisten Modelle können eigentlich nicht viel außerhalb der eigenen Spezialisierung machen und wie gut so ein Tool ist oder so ein Modell ist oder wie gut ein Modell trainiert ist, hängt von der Qualität ab und von der Menge an Daten, die dem Modell gefüttert wurden, wenn ich das jetzt richtig verstanden habe und das Endergebnis ist dann entweder ein gutes Modell, wo man dann AI-Tools mit Hilfe dieser Modelle entwickeln kann oder nicht.

Ja, also wie gesagt, also Neural AI ist definitiv das verbreiteste und meistverwendetste AI und das ist, wie gesagt, immer sehr spezifisch.

Einzelne Tools, einzelne Modelle, die in der einen verwendet werden und da natürlich diese Modelle sind in den meisten Fällen die erfolgreichen Deep-Learning-Modelle und die sind datengetrieben.

Dementsprechend, genau, je besser und je mehr Daten man zur Verfügung hat für die konkrete Aufstellung und das Problem, das man lösen will, desto besser sind die Systeme.

Was wir, wie gesagt, nur, wie ich schon kurz einmal erwähnt habe, in speziellen letzten Jahren vermehrt gesehen haben, dass eben durch moderne Sprachmodelle sich gezeichnet, dass zumindest diese Sprachmodelle flexibler sind, als wir davor gesehen haben.

Aber das ist immer noch speziell fokussiert halt eben auf alles, was in einer gewissen Weise mit Sprachmodellen funktioniert.

Alle anderen Art von Modelle, Bildanalyse, Zeitserien, Vorhersage zum Beispiel oder ähnliches, das ist immer noch alles sehr narrow AI und funktioniert sehr gut in speziellen Anwendungen, hat aber sehr, wie gesagt, Schwierigkeiten damit, mehr auf Veränderungen der Umgebung einzugehen.

Interessanterweise habe ich gestern mir einen Podcast angehört über die Aufmerksamkeit von Menschen.

Das hat jetzt nur marginal was mit AI zu tun, aber ich glaube, in die Richtung wird es in Zukunft auch zum Teil gehen, weil damals hat man Zeitungen gelesen.

Das war die Hauptinformationsquelle für die Menschen.

Danach sind Technologien entstanden, wie zum Beispiel das Radio und in der breiten Masse wurden die dann angewendet.

Dann kam der Fernseher.

Jetzt haben wir die Ära der Social Media, wo da die meiste Aufmerksamkeit von den Menschen ist.

Der Gast in der Podcast-Episode hat das so erklärt, dass das Nächste, was kommen wird, ist Data Analytics, also das Verhalten oder die Daten, die von den Social Media Plattformen gesammelt werden und von der Google-Suche und von allen Programmen.

Die Daten werden dann ausgewertet und dann werden User-Profile erstellt, damit man dann den Inhalt oder die Werbung oder was auch immer sehr personalisiert den Menschen im Internet präsentieren kann.

Da wird, glaube ich, AI eine sehr wichtige Rolle spielen, weil das eine riesige Anzahl von Daten ist, die bearbeitet werden muss und ein Mensch zum Teil da eigentlich keine Schlüsse ziehen kann, weil es einfach so eine gigantische Menge an Daten ist von so vielen Menschen auf der ganzen Welt.

Siehst du da ein Potenzial, wo AI da wirklich das in die Hände eines normalen Users bringen könnte? Also so wie wir jetzt Social Media verwenden, so könnten wir theoretisch auch in Zukunft Daten auswerten, weil jetzt ist es irgendwie so hinter so einer großen Wand versteckt, dass Leute, die im Thema sind, die können mit einer großen Datenmenge umgehen und diese auch auswerten, aber es ist noch nicht so, dass ich mich zum Beispiel auf einer Webseite einbauen kann und endlich viele Datensätze hochladen kann, wenn ich diese hätte und sagen kann, hey, werte mir die Daten aus oder sowas.

Glaubst du, wird da AI eine große Rolle spielen? Ja, das sind jetzt einige Themen, die du hier angesprochen hast.

Lass mich so versuchen, ein paar von diesen aufzugreifen.

Grundsätzlich personalisierte, wenn man so will, die Interaktion von Webseiten oder ähnlichen quasi personalisiert zu gestalten, glaube ich, ist etwas, an dem natürlich jetzt schon einige Zeit gearbeitet wird und hier gibt es definitiv natürlich einige Computersysteme, die unterstützend wirken, was das Vorhanden oder das Erstellen von Benutzerprofilen betrifft und wie man quasi diese adaptieren kann und muss, um hier das Personalisiertesten zu gestalten.

Es gibt auch definitiv einiges an analytischen Plattformen, die versuchen, hier zu unterstützen, zu sein, quasi Daten auszuwerten, auch quasi in irgendeiner Weise Laien mehr oder weniger Daten auszuwerten, aber was ich persönlich mehr oder relevanter sehe für diese Themen, die du jetzt angesprochen hast, ist, was ich jetzt, wie gesagt, in dem letzten Jahr eben tut mit diesen sogenannten Sprachmodellen.

Wie gesagt, ich bin jetzt zum Beispiel gerade bei einem Kundenprojekt, wo es eben darum geht, diese Sprachmodelle auch für deren interne Prozesse zu verwenden und deswegen habe ich halt auch eben Tränen gegeben zu diesen Themen und was da für mich auch nochmal ganz klar ist, wo ich glaube, wo jetzt die Reise sehr bald hingehen wird, ist etwas, was wir lange versucht haben, nämlich digitale persönliche Assistenten zu entwickeln und was ich damit meine ist, wir haben bereits in den Anfängen der 2000er Jahre, gab es sehr stark den Wunsch, sogenannte Assistenten zu entwickeln, die jeder einzelne für sich hat und verwenden kann und damals war schon bereits die Idee, okay, mit den Smartphones, die wir haben, haben wir die Möglichkeit, dass jeder auf seinem Smartphone einen intelligenten Assistenten haben kann, der einem in irgendeiner Weise hilft, im Alltag hilft und in irgendeiner Weise auch als Portal dient zur Information und das hat aber eigentlich nicht wirklich gut funktioniert.

Also wir haben wie gesagt immer noch die, wir verwenden quasi das Smartphone natürlich, aber wir sind einfach selbst tätig, das bedeutet, wir verwenden selbst die Google-Suche, wir sind selbst dabei, Informationen auszuwerten, zu aggregieren, Schlussfolgerungen zu ziehen und ein Grund dafür war, dass das Interface nie wirklich gut funktioniert hat, also das ganze Interface, die wir auch im ganzen Web und natürlich für FrontEnding hatten, sind oft eher für Menschen gedacht und für die menschliche Verarbeitung und deren Interaktion ausgeladen, also gebaut, weil wir halt eben oft keine gute Art und Weise gefunden haben, diese Informationen Menschen anders zur Verfügung zu stellen.

Doch was wir jetzt eben haben genau sind, mit diesen neuen Technologien wie ChatGPT und Ähnliches, haben wir das erste mögliche, die Möglichkeit, dass wir eine einfache, dass du durch geschriebene oder gesprochene Sprache ein einfaches Interface hast zu allem anderen, weil du hast plötzlich diese Sprachmodelle, die menschliche Sprache verstehen, umsetzen und auch erstellen können.

Was ich damit meine ist, wir haben jetzt das erste Mal mit schon bereits vorhandenen Technologien die Möglichkeit, dass du sagst, du hast als Mensch eine Frage, du stellst diese dem System, dieses System versteht dich automatisiert, was du brauchst und dieses System hat dann die Möglichkeit quasi das Internet zu durchsuchen, Datenbanken zu zugreifen, auf alles mögliche zu tun, versteht die Inhalte und kann sich für dich das wiedergeben, so wie du sie brauchst.

Und das ist das erste Mal, dass wir wirklich diese Fähigkeiten haben.

Also sagen wir mal in Zukunft, diese ganzen Sprachassistenten auf den Smartphones, ich mag jetzt keine Namen nennen, weil sonst aktivieren die sich vielleicht den Zuhörern, aber dann würdest du zum Beispiel sagen so, hey Sprachassistent oder Sprachassistentin, ich mache heute eine Party, es soll italienisches Essen geben, es gibt 15 Gäste, drei davon sind vegetarisch, zwei davon sind vegan, es soll diese und dieser Cocktails geben, bitte bestell mir alles, was ich brauche und liefer mir das vor die Haustür.

Und die AI wird dir Rezepte zusammenstellen für die Leute mit den bestimmten Sachen, die die gerne essen oder nicht essen.

Die wird dir ein Menü erstellen für Cocktails, für das Essen und alles bestellen und vor die Haustür liefern, so damit du eigentlich sonst nichts mehr machen musst.

Du musst nur sagen, was du willst und den Rest bekommst du automatisch zugeschickt.

Also die AI oder die Assistentinnen werden dann auch Entscheidungen für dich treffen können eigentlich.

Genau, wie gesagt, der Wunsch gibt es schon lange, dass solche Systeme funktionieren, die haben halt einfach nicht besonders gut funktioniert in der Vergangenheit.

Aber wie gesagt, speziell eben genau, dass das System versteht, was du willst, das ist jetzt schon viel besser geworden, dass es wirklich einfach die Möglichkeit besteht, dass diese Systeme jetzt endlich wirklich so reif sind, quasi dass wir diese Use Cases wirklich abdecken können.

Zusätzlich ist auch wichtig zu verstehen, dass diese Systeme nicht nur einfach Informationen entgegennehmen und etwas ausführen für dich, sondern mit dir in Konversationen treten können.

Und das sieht man auch eben, wie gesagt, wenn man sich halt mit einem Chat-Chip-Video und ähnliches wirklich unterhält und die Systeme werden halt speziell meiner Meinung nach dann auch auf Sprache optimiert werden, sind sie wirklich in der Konversation zu treten, um zum Beispiel wirklich zu eruieren, was für Zusatzinformationen die Systeme auch wirklich benötigen.

Das war immer ein großes Problem in der Vergangenheit, dass das System zum Beispiel ein bisschen Information jetzt nicht weiß und in irgendeiner Weise auch nicht klar gemacht hat, dass es diese Information in irgendeiner Weise fehlt.

Aber eben eine Form von natürlicher Konversation führen zu können, ich glaube, da sind wir jetzt wirklich das erste Mal jetzt wirklich da soweit gekommen.

Und das ist dann wirklich in der Hinsicht essentiell und interessant, weil diese Systeme halt als Übersetzer dienen für den Rest.

Und man sieht das jetzt bereits mit Chat-Chip -Video, Long-Chain und anderen Technologien in diesem Bereich.

Wir sind soweit, dass diese Sprachmodelle uns als Intermediates dienen, um zu verstehen, was wollen wir als Mensch.

Diese Sprachmodelle übersetzen unsere Anfragen auf die verschiedenen Tools und Interfaces, die es gibt, können diese für uns ausführen und können deren Resultate uns wieder einfach Verständnis machen.

Und das ist etwas, was wir bis jetzt nicht geschafft haben.

Und wir sind in diesen Sprachmodellen das erste Mal, dass das wirklich möglich ist.

Und dementsprechend bin ich mir sicher, dass wir in der nächsten sehr baldigen Zeit sehr viel von diesen Digital Universal Assistants sehen werden.

Also wirklich Assistenten, welche uns die Möglichkeit geben, über eine natürliche Konversation sehr viel von diesen Dingen zu tun.

Und dann ist natürlich dann alles offen in der Art und Weise, inwiefern man diese Assistenten jetzt verwendet, um jetzt eine Party zusammenzustellen oder einfach, um über bestimmte Themen zu lernen.

Das ganze Thema von Tutoring und ähnliches.

Dass man sagt, okay, man hat solche Systeme und sie können mit einem sprechen, sie können einen verstehen in der Art und Weise.

Wie stritt man mit denen in Konversation? Es gibt jetzt auch dieses Zitat, das sehe ich jetzt mittlerweile täglich im Internet, dass viele Leute haben einfach die Angst, dass deren Job ersetzt wird durch eine künstliche Intelligenz in der Zukunft.

Aber das Zitat ist eher so, dass damit dein Job, sagen wir mal jetzt Designer oder Developer, ersetzt werden kann durch eine AI, wo sie dem Kunde genau sagen können, was der Kunde will oder was der Kunde machen will oder was das Problem ist oder zu welchem Ziel der Kunde gehen will.

Und deswegen sind die Jobs sicher, dass die nicht verschwinden werden, weil der Kunde das meistens nicht kann.

Das war nur so ein lustiges Zitat, was so ein bisschen die Sorgen für ihn genommen hat, glaube ich, dass der Job irgendwann mal ersetzt wird.

Weil lustigerweise werden die digitalen und die künstlichen Aufgaben oder künstliche im Sinne von kreativen Aufgaben, werden irgendwie gefühlt als erstes von AI gedient, wie zum Beispiel Bild generieren oder Bilderkennung und all diese Sachen.

Und so simple Sachen wie, keine Ahnung, Hausbau oder Fließbandarbeiten, gibt es schon viele Roboter, aber so simple physische Arbeiten, die werden erst, glaube ich, am Ende ersetzt, weil es einfach sich noch nicht auszahlt, die Roboter, die dafür benötigt werden, zu bauen, weil es eben noch nicht so kosteneffizient ist, dass das sich für die Firmen rentieren würde, in die Richtung Produkte zu erstellen.

Und das ist irgendwie interessant, wenn man sich am Anfang denken würde, so, ja, am Anfang werden die simpleren Aufgaben durch Artificial Intelligence ersetzt und im Endeffekt ist das so umgekehrt, dass die Kreativen welche als erstes irgendwie beansprucht werden von der AI.

Hast du da vielleicht ganz kurz beantwortet, weil wir schon ein bisschen lange reden, dir schon Gedanken darüber gemacht, wie AI den Arbeitsmarkt beeinflussen wird, ob es eine große Revolution sein wird oder ob es jetzt einfach nur Angstmacherei ist und das sowieso die meisten Arbeitsplätze vielleicht ein bisschen verändern wird, aber die meisten Arbeitsplätze wird es nach wie vor noch geben.

Genau, das fällst wirklich kurz zufassen.

Genaue Zahlen gibt es in diesem Bereich noch nicht, weil eben genau der Bereich generative AI, den du jetzt angesprochen hast, daran noch zu neu ist.

Die momentane Vorhersage ist auf jeden Fall aber diese, dass es massiven Einfluss haben wird.

Also im Moment gehen die meisten davon aus, dass bis zu 80 Prozent aller Berufe, die in irgendeiner Weise intelligent Tätigkeiten durchführen, in irgendeiner Weise das, was wir unter kreativ und intelligente Berufe wahrnehmen, dass diese bis zu ein Drittel und mehr automatisierbar sind.

Das bedeutet, es wird da definitiv sehr viel Job Displacement und Replacement geben.

Im Moment schaut das einfach so aus, dass einige Bereiche halt wirklich stark automatisiert werden können.

Das bedeutet, diese Jobbereiche werden einfach dann weniger gut entlohnt.

Andere werden wahrscheinlich durch die Technologien hier einfach unterstützend tätigen können.

Das bedeutet, da werden bestimmte Tätigkeiten wahrscheinlich jetzt von Laien mehr selbstständig ausgeführt, als dass man bestimmte Experten dafür in Anspruch nimmt.

Okay, voll cool.

Hat mich mega gefreut mit dir heute zu quatschen.

Du hast am Anfang gesagt, dass du AI-Consulting machst.

Ich glaube, wenn ich das richtig verstanden habe, entwickelst du auch oder kannst du Produkte selbst entwickeln, die sich mit AI beschäftigen.

Und wenn jetzt zum Beispiel eine Firma nicht hinten nachbleiben will oder wenn sie darüber nachdenkt, wie kann ich für meine Firma künstliche Intelligenz anwenden, dann sich die Firma einfach weiterentwickelt.

Wie können sie dich erreichen? Wie arbeitest du damit in den Firmen? Genau, wie ich schon anfangs kurz erwähnt habe, bin ich sowohl bei der Planung als auch in der Umsetzung von Projekten tätig, unterstütze Kunden dabei.

Am einfachsten ist es mich wirklich einfach per E-Mail zum Beispiel oder auf LinkedIn zu erreichen.

Die Leute sollten mich mit meinem Namen Manuel Passieger direkt auf LinkedIn finden.

Sonst auch per E-Mail einfach nur contact@manuelpasieka.

com .

com.

Du wirst das vielleicht auch in den Show Notes vielleicht inkludieren können und Ähnliches.

Das Beste ist wirklich hier einfach mal ein E-Mail zu schreiben oder sonst in Kontakt zu reden.

Ich würde das, was halt eben möglich ist in der Art und Weise, das eruiert man dann zu Beginn für jeden Projekt und zu verstehen, wo steht das Unternehmen, wie weit ist das Unternehmen in Sachen der Digitalisierung, was für Potenzial gibt es hier, die ersten Projekte anzufangen.

Dann ist es natürlich dann am Anfang wichtig, wirklich zu verstehen, was sind die low-hanging fruits, wo gibt es hier die Möglichkeit, dass man sagt mit etablierten Technologien wirklich einen positiven Impact auf das Unternehmen zu haben.

Das ist natürlich dann aber sehr individuell für die einzelnen Kunden.

Das bedeutet am Anfang ist es wirklich eine Kennenlernphase, das Eroieren von Use Cases, bis man dann gesagt hat, man macht einen ersten Prototyp und sieht, was es da für Möglichkeiten gibt für das Unternehmen und vor allem auch für die Unternehmen, das einmal ein bisschen kennenzulernen.

Weil Unternehmen, wie gesagt, die bis jetzt damit nichts zu tun haben, für die ist es ja oft sehr schwer zu verstehen, was jetzt wirklich alles möglich ist und wie schwierig die Umsetzung ist.

Das bedeutet, dass ist jetzt einfach ein Lernprozess, den die Unternehmen noch durchgehen müssen.

Also es wird auf jeden Fall alles unten verlinkt sein in der Beschreibung.

Gibt es noch irgendeine kleine Message, die du an die Zuhörer und Zuschauerinnen weitergeben magst? Nein, ich glaube, wir haben schon einiges besprochen und wie du schon gesagt hast, es ist ein großes Feld.

Sonst, wie gesagt, ich kann Zuhörern nur, die interessiert sind an einem Thema, einfach nur raten, schaut es einmal in euren Podcast rein und vielleicht schaut es euch an, ob euch der Artificial Intelligence in Austria Podcast interessiert.

Da gibt es einige verschiedene Themen und ich lade Leute ein, einfach mal zu sehen, ob da etwas für sie dabei ist.

Cool, dann vielen, vielen Dank.

Bitte schaut euch alles an, was da Manuel so macht, eben Austrian AI Podcast, seine Webseite und all diese Sachen findet ihr alles in der Beschreibung.

Vielen, vielen Dank für deine Zeit, hat mich mega gefreut und dann lassen wir mal die Leute in den Kommentaren die Meinungen hinterlassen.

Vielen Dank für die Einladung.

.