01.04.2023 11:55 AM

KI: Geschichte der künstlichen Intelligenz

Ob in der Daily Show mit Trevor Noah, die Software Dall-E 2, welche Text in Bilder umwandelt, ChatGPT oder in noch umstritteneren technologischen Anwendungen der Künstlichen Intelligenz (KI) wie in tödlichen autonomen Waffensystemen (LAWS) – KI hat das Potenzial, unser tägliches Leben in naher Zukunft zu verändern. Die Anwendung von KI-Technologien treibt das Wachstum auf individueller, geschäftlicher und wirtschaftlicher Ebene voran. Tatsächlich hat die Geschichte der künstlichen intelligenz begonnen, den Menschen bei einer Reihe von Arbeitstätigkeiten zu übertreffen.

Da der weltweite KI-Markt laut McKinsey einen Jahresumsatz von fast 32 Billionen Dollar erreichen soll, boomt die Branche und dehnt sich auf noch breitere Anwendungsbereiche aus. In den vergangenen Jahrzehnten drehte sich die Entwicklung der KI hauptsächlich um die Verbesserung der sprachlichen, mathematischen und logischen Denkfähigkeiten. Die nächste Welle von KI-Fortschritten geht jedoch in Richtung der Entwicklung emotionaler Intelligenz, die es Maschinen ermöglicht, die physische Welt bis zu einem gewissen Grad zu verstehen. Gleichzeitig können wir die Schattenseiten des Einsatzes von KI beobachten. Von der Verzerrung (auch Bias genannt) der Algorithmen über die Diskriminierung bestimmter Geschlechter oder ethnischer Gruppen aufgrund des Lernens aus verschiedenen Quellen bis zu grundlegenden Problemen mit der Fairness –  all dies wurde bei verschiedenen KI-Anwendungen festgestellt. Zu den Bereichen, in denen diese Probleme auftreten, gehören Werbung, KI-basierte Rekrutierungssoftware, Vorhersagemodelle für die Anwendung im Gesundheitswesen wie der ada health chatbot und Gesichtserkennungssoftware. Diese Problemfelder werfen Diskussionen über die Ethik der KI auf, denen wir uns in unserem zweiten Artikel zuwenden.

Da zu erwarten ist, dass diese Entwicklungen von KI weiter zunehmen werden, möchten wir deine Aufmerksamkeit auf Künstliche Intelligenz lenken und ein solides und wirklich detailliertes Verständnis für diese Innovationen schaffen. Mit unserem ersten Blogartikel werden wir ein Grundverständnis dafür schaffen, was KI eigentlich ist, über die Geschichte der KI sprechen, eine ganzheitliche Definition von KI suchen und die wichtigsten Schlüsselbegriffe im Zusammenhang mit KI umreißen.

Die Geschichte der künstlichen Intelligenz (KI): Woher kommt sie?

Seit der Mathematiker und Informatiker Alan Turing in den 1950er Jahren die berühmte Frage „Können Maschinen denken?“ stellte, konnte man das Entstehen vermeintlich intelligenter Maschinen beobachten. In der ersten Hälfte des 20. Jahrhunderts sahen die Menschen zum ersten Mal so etwas wie künstliche Intelligenz entstehen, ein Meilenstein für die Entwicklung. Erinnerst du dich an den „herzlosen“ Blechmann aus Der Zauberer von Oz oder den humanoiden Roboter, der sich in Metropolis als Maria ausgab? Nun, man könnte sagen, dass dies die früheste Form von KI ist. Allerdings gab es eine Sache, die Turing davon abhielt, die KI noch weiter zu erforschen: die Kosten für Computer und Netz in den 50er Jahren. Das Leasen eines Computers war kostspielig, bis zu 200.000 Dollar pro Monat, um genau zu sein. Aber es gab eine Veränderung, ein Deep Learning, die die KI-Landschaft erheblich verbessern sollte.

Der Nachweis des Konzepts wurde 1956 durch Allen Newell, Cliff Shaw und Herbert Simons in ihrer Logic Theorist erbracht. Der Logic Theorist war ein Programm, das die Problemlösungsfähigkeiten eines Menschen nachahmen sollte. Es wird von vielen als das erste Programm für künstliche Intelligenz angesehen und wurde auf dem Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI) vorgestellt, das von John McCarthy und Marvin Minsky veranstaltet wurde. Heute kann man sagen, dass diese Konferenz der nächsten Generation der KI-Forschung in den folgenden Jahrzehnten Auftrieb gab. Nach der DSRPAI waren die Computer leistungsfähiger, konnten mehr Daten speichern und verarbeiten. Tools zur Verarbeitung natürlicher Sprache wie ELIZA zeigten erste Erfolge bei der Lösung von Problemen bzw. der Interpretation gesprochener Sprache. 1970 sagte Marvin Minsky gegenüber dem Life Magazine: „In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben.“ Im Nachhinein klingt das etwas zu enthusiastisch, und diese Einschätzung stand im Gegensatz zu vielen Zeitgenossen. Man argumentierte, dass Computer einfach zu „kraftlos“ seien, um irgendeine Art von Intelligenz zu zeigen. Hans Moravec, ein damaliger Doktorand von McCarthy, stellte fest, dass „Computer noch millionenfach zu schwach waren, um Intelligenz zu zeigen“.  Mit diesen Aussagen war es keine Überraschung, dass die Finanzierung, die Geduld der Regierungen und der Verlust des Interesses der Öffentlichkeit unvermeidlich waren, was natürlich keine KI-Entwicklungswelle auslöste.

Zehn Jahre lang gab es also nicht so viele neue KI-Entwicklungen, bis in den 1980er Jahren. Edward A. Feigenbaum, ein Forscher aus Stanford, führte Expertensysteme ein, die den Entscheidungsprozess menschlicher Expert:innen nachahmten. Nachdem das System von menschlichen Expert:innen gelernt hatte, wie es auf eine bestimmte Situation reagieren sollte, konnten auch Nicht-Expert:innen von diesem Programm Ratschläge erhalten. Der zweite Katalysator für die KI war von 1982 bis 1990 die japanische Regierung. Sie spielte eine entscheidende Rolle bei der weiteren Entwicklung der KI. Mit ihrem Fifth Generation Computer Project (FGCP) investierte sie über 400 Millionen Dollar in die Entwicklung von KI. Eines der vielen Ziele war die Revolutionierung der Datenverarbeitung, die Einführung logischer Programmierung und die Verbesserung der künstlichen Intelligenz insgesamt. Auch wenn die meisten Ziele verfehlt wurden, kann das FGCP als der wichtigste Beschleuniger für die Zukunft der KI angesehen werden.

Vielleicht hast du schon einmal vom Moore’s Law gehört? Es beschreibt im Grunde, dass sich die Speicher- und Rechenleistung jedes Jahr verdoppelt. Diese Entwicklung hat in den 2000er-Jahren endlich aufgeholt und unsere Erwartungen mit der jüngsten Entwicklung des Quantencomputers in den Jahren 2021 und 2022 sogar noch übertroffen. Weiterhin hat die breitere Nutzung des Internets und vernetzter Geräte (IoT) die Menge der verfügbaren Daten erhöht, was wiederum die potenziellen Trainingsdatensätze und Anwendungsbereiche für KI vergrößert.

Ironischerweise wurden in den 2000er und 2010er-Jahren ohne staatliche Förderung zahlreiche KI-Innovationen entwickelt und bis in die 2020er-Jahre fortgeführt. Da sich das grundlegende Coding nicht geändert hat, was hat sich dann geändert? Es stellt sich heraus, dass die zugrunde liegende Begrenzung des Computerspeichers, die uns vor 30 Jahren zurückhielt, heute kein Problem mehr darstellt.

Die ersten Entwicklungen von Moore’s Law finden sich bereits 1997, als Garry Kasparov nach 19 Zügen in einer Partie gegen Deep Blue, einen von IBM-Wissenschaftlern entwickelten Schachcomputer, aufgab. Ab diesem Zeitpunkt ging es mit der KI erst richtig los! Da wir wahrscheinlich ein Buch über die Entwicklungen der letzten 20 Jahre schreiben könnten, haben wir uns entschlossen, die folgende Grafik und Zeitleiste zu erstellen, in der einige wichtige KI-Tools und Entwicklungen hervorgehoben werden.

In den Jahren 2016 und 2017 wurde wieder KI anhand eines Spiels, ähnlich wie 1997 bei Deep Blue, beurteilt. Googles künstliche Intelligenz DeepMind AlphaGo hat im Jahr 2061 mehrere Go-Spieler und 2017 die Nummer eins der Welt, Ke Jie, besiegt. Go gilt als das anspruchsvollste klassische Spiel für künstliche Intelligenzen. Der KI stehen nahezu unendlich viele mögliche Züge zur Verfügung, die sie mithilfe eines Suchbaums auswertet. Vor 2016 war ein KI-System nicht in der Lage, die schiere Anzahl der möglichen Go-Züge zu bewältigen oder die Stärke jeder möglichen Brettposition zu bewerten. Dies verdeutlicht die grundlegende Beziehung zwischen der KI-Entwicklung über die Jahre und Moore’s Law: Wir sättigen die Fähigkeiten der KI bis zum Niveau unserer aktuellen Rechenleistung (Computerspeicher und Verarbeitungsgeschwindigkeit) und warten dann darauf, dass das Moore’s Law wieder aufholt.

Ein interessantes Thema, über das man mehr als nur einen Artikel schreiben kann, ist natürlich die Zukunft der KI – wohin wird uns die Technologie führen, und wie werden die künftigen KI-Systeme unser Leben beeinflussen? Zentrale und teils sogar philosophische Fragen, die wir nicht in einem kurzen Absatz beantworten können. Aber zumindest weißt du jetzt schon, welche Art von Artikeln auf diesen Blog folgen werden.

Woher kommt die Definition von künstlicher Intelligenz (KI)

Eine Frage, die sich natürlich immer stellt, ist, was KI eigentlich ist und wie die Technologie definiert werden kann. Um dies zu beantworten, können wir leider keinen linearen Weg wählen, wie wir es bei der Geschichte der KI getan haben. Daher geben wir einige weiter gefasste Definitionen an, die in der akademischen Literatur zu finden sind und von Praktikern verwendet werden. Da aber beide Ansätze kein ganzheitliches Bild zeichnen, wenden wir uns an eine europäische Institution, die uns weiterhelfen kann.

Justin Healey definiert KI als „[… ] ein Computersystem, das Aufgaben erledigen kann, für die der Mensch Intelligenz benötigt“. Wagman schreibt, dass KI „eine theoretische Psychologie ist, die versucht, die Natur der Vielseitigkeit und Leistungsfähigkeit des menschlichen Geistes zu erforschen, indem sie Computermodelle der intellektuellen Leistung in einer wachsenden Vielfalt von kognitiven Bereichen konstruiert“, und ein Expertengremium beschreibt KI in ähnlicher Weise als „einen Zweig der Informatik, der die Eigenschaften von Intelligenz durch die Synthese von Intelligenz untersucht“. Es gibt zahllose unterschiedliche Definitionen, sodass wir uns auch gefragt haben, was wir erwähnen sollen – zum Glück hilft uns die Europäische Kommission dabei.

Genau aus solchen Gründen setzt die EU Expertengruppen zu bestimmten Themen ein. Für KI gibt es die High-Level Expert Group on Artificial Intelligence (KI HLEG).  Die KI-HLEG erarbeitet eine ausführliche Definition von künstlicher Intelligenz, aus der sich der allgemeine Arbeitsrahmen für KI direkt ableiten lässt. Warum erwähnen wir die HLEG hier überhaupt? Nun, sie wird im zweiten Artikel über die Einführung einer ethischen und vertrauenswürdigen KI eine wichtige Rolle spielen. Die Expertengruppe setzt sich aus Fachleuten aus verschiedenen Branchen und Disziplinen zusammen. Sie arbeiten an einer Reihe von Aufgaben und Zielen, die von der Europäischen Kommission festgelegt wurden.

Die KI-HLEG definiert KI als „von Menschen entworfene Software- (und möglicherweise auch Hardware-) Systeme, die angesichts eines komplexen Ziels in der physischen oder digitalen Dimension handeln, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, aus diesen Daten abgeleitetes Wissen schlussfolgern oder Informationen verarbeiten und die beste(n) Aktion(en) zur Erreichung des gegebenen Ziels beschließen“.

Aus der Definition der HLEG leiten wir ab, wie KI grundsätzlich funktioniert: KI kombiniert große Datenmengen mit schneller, iterativer Verarbeitung und Algorithmen, um ein bestimmtes Ziel zu erreichen. Die Software lernt dann automatisch aus Mustern oder Merkmalen in den gegebenen und kontinuierlich gesammelten Datensätzen. Um die Muster und Merkmale der Daten herauszufinden, wird zunächst ein Trainingsdatensatz benötigt, um den Anpassungsprozess für das KI-System zu starten. Die KI wird also nicht auf eine bestimmte Art und Weise programmiert, sondern findet sich anhand des Trainingsdatensatzes zurecht. Nachdem sie Muster im Datensatz gefunden hat, passt sich die KI kontinuierlich an und entwickelt sich anhand der gesammelten realen Daten und unter Berücksichtigung ihrer eigenen früheren Entscheidungen weiter, um das vorgegebene, komplexe Ziel zu erreichen. Wir haben bereits in der Einleitung über die Verzerrung von Algorithmen geschrieben. Um genau diese Art von negativer Verzerrung zu vermeiden, lernt die KI unter anderem dadurch, dass sie ihre Verzerrungswerte (Bias-Values) ändert und anpasst, um genauere Ergebnisse zu erzielen, wenn während des laufenden Anpassungsprozesses mehr Daten berücksichtigt werden.

Turing-Test: KI-Forschung mit dem Computer

Erinnerst du dich an die Frage, die Alan Turing stellte und mit der wir die Geschichte der KI begannen? Der von Alan Turing vorgeschlagene Turing-Test war als Gedankenexperiment gedacht, mit dem die philosophische Unbestimmtheit der Frage „Kann eine Maschine denken?“ umgangen werden sollte. Ein Computer besteht den Test, wenn ein menschlicher Befrager, nachdem er einige schriftliche Fragen gestellt hat, nicht erkennen kann, ob die schriftlichen Antworten von einem Menschen oder einem Computer stammen. Wichtig ist, dass das Computerprogramm nicht hart codiert ist, d. h. dass keine Daten direkt in den Quellcode eines Programms eingebettet sind.

Während des Tests fungiert ein Mensch als Fragesteller, während der zweite Mensch und der Computer als Beantworter einer bestimmten Reihe von Fragen fungieren. Der Fragesteller befragt die Befragten zu einem bestimmten Themenbereich in einem vorgegebenen Format und Kontext. Nach einer bestimmten Anzahl von Fragen wird der Fragesteller gebeten, zu entscheiden, welcher der Befragten ein Mensch und welcher ein Computer war. Der Test wird viele Male wiederholt. Wenn der Fragesteller in der Hälfte oder mehr der Testdurchläufe die richtige Entscheidung trifft, wird der Computer als künstlich intelligent eingestuft. Denn der Fragesteller betrachtet den Computer als „genauso menschlich“ wie den tatsächlichen Menschen, der den Test beantwortet hat. Eine anschaulichere Erklärung kannst du hier finden.

Zu der Zeit, als Turing den Test definierte, waren Computer natürlich noch nicht so weit entwickelt wie heute. Daher waren einige der nachfolgend aufgeführten Fähigkeiten zu dieser Zeit eher ein theoretisches Gedankenexperiment. Damit ein Computer den Turing-Test bestehen kann, müsste er die folgenden Fähigkeiten besitzen:

  1. Natural Language Processing, um erfolgreich in einer menschlichen Sprache zu kommunizieren;
  2. Knowledge Representation, um zu speichern, was es weiß oder hört
  3. Automated Reasoning zur Beantwortung von Fragen und zum Ziehen neuer Schlussfolgerungen
  4. Machine Learning zur Anpassung an neue Umstände und zur Erkennung und Extrapolation von Mustern

Turing hielt die physische Simulation einer Person für unnötig, um Intelligenz nachzuweisen. Andere Forscher haben jedoch einen vollständigen Turing-Test vorgeschlagen, der die Interaktion mit Objekten und Menschen in der realen Welt erfordert. Um den vollständigen Turing-Test zu bestehen, muss ein Roboter

5.Computer Vision und Speech Recognition, um die Welt wahrzunehmen, besitzen und
6.Robotics können, um Objekte zu manipulieren und sich fortzubewegen.

Diese sechs Disziplinen machen den größten Teil der KI aus. Dennoch haben sich die KI-Forscher nur wenig Mühe gegeben, den Turing-Test zu bestehen, da sie es für wichtiger hielten, die der Intelligenz zugrunde liegenden Prinzipien zu untersuchen. Die Suche nach dem „künstlichen Flug“ beispielsweise war erfolgreich, als Ingenieure und Erfinder aufhörten, Vögel zu imitieren, und stattdessen begannen, Windkanäle zu benutzen und etwas über Aerodynamik zu lernen. In den Texten der Luftfahrttechnik wird das Ziel nicht so definiert, dass es darum geht, „Maschinen zu bauen, die so genau wie Tauben fliegen, dass sie sogar andere Tauben täuschen können“. Es wird also immer eine Herausforderung sein, die menschliche Intelligenz exakt nachzubilden, da es verschiedene Paradigmen gibt, die die menschliche Intelligenz unterschiedlich definieren, und die menschliche Intelligenz insgesamt noch nicht vollständig verstanden ist. Anstatt sich ausschließlich auf die Nachbildung der Intelligenz zu konzentrieren, könnte es von Vorteil sein, die sechs durch den Turing-Test definierten KI-Fähigkeiten zu verbessern und sich so langsam auf natürliche Weise der Nachbildung der menschlichen Intelligenz anzunähern.

Der Turing-Test und seine Ableitung der sechs KI-Fähigkeiten sind jedoch nur etwas Theoretisches und Historisches. Da sich auch die KI weiterentwickelt, wollen wir uns nicht nur auf die historische Ableitung von Kerndisziplinen verlassen, sondern auch auf die aktuelle Definition der KI-Fähigkeiten. In der heutigen Wirtschaft können wir mehr als die sechs „klassischen“ KI-Merkmale identifizieren. Eine recht weitverbreitete Unterscheidung, die du online finden kannst, ist die folgende:

  • Neural Networks – Gehirnmodellierung, Zeitreihenvorhersage, Klassifizierung
  • Evolutionary Computation – genetische Algorithmen, genetische Programmierung
  • Vision – Objekterkennung, Bildverständnis
  • Robotics – intelligente Steuerung, autonome Erkundung
  • Expert Systems – Entscheidungshilfesysteme, Lehrsysteme
  • Speech Processing – Spracherkennung und -produktion
  • Natural Language Processing – maschinelle Übersetzung
  • Planning – Terminplanung, Spiele
  • Machine Learning – Entscheidungsbaumlernen, Versionsraumlernen

Wie bei vielen KI-Technologien, selbst bei der Unterscheidung von Schlüsselwörtern und Bereichen der KI, handelt es sich um eine fortlaufende Entwicklung, die sich mit der derzeit in der akademischen und beruflichen Welt zu beobachtenden Innovationskraft verändern wird.

Die Geschichte der KI: Die wichtigsten Erkenntnisse

Was sind also die wichtigsten Erkenntnisse aus diesem Artikel? Nun, du solltest jetzt verstehen, wie KI entwickelt wurde, und dich an ein paar Stichworte wie Alan Turing und den Turing-Test erinnern, die letztlich die sechs verschiedenen Merkmale von KI definieren. Du solltest dich an das Fifth Generation Computer Project (FGCP) von 1982 bis 1990 erinnern, das als Katalysator für zukünftige KI-Entwicklungen diente. Moore’s Law sollte jetzt als der Hauptgrund dafür verstanden werden, dass die Entwicklung der KI in den 2000er-Jahren Fahrt aufnahm. Außerdem ist die Definition von KI durch die AI HLEG als Gedankenstütze zu verstehen

„Von Menschen entwickelte Softwaresysteme, die angesichts eines komplexen Ziels in der physischen oder digitalen Dimension handeln, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, aus diesen Daten abgeleitetes Wissen schlussfolgern oder Informationen verarbeiten und die beste(n) Aktion(en) zur Erreichung des gegebenen Ziels beschließen.“

Wenn du dich an den Turing-Test erinnern, weißt du jetzt also auch, dass die sechs verschiedenen Bereiche der KI die folgenden sind:

1.Natural Language Processing

2.Knowledge Representation

3.Automated Reasoning

4.Machine Learning

5.Computer Vision und Speech Recognition

6.Robotics

Da KI ein faszinierendes Thema ist und wir von der neosfer das Zukunfts- und Innovationspotenzial von KI in besonderem Maße schätzen, wird das nicht der letzte Artikel zu diesem Thema sein. Im nächsten Artikel wenden wir uns der eher Business-Seite der KI zu und zeigen auf, wie Unternehmen KI in der Realität einsetzen können. Da wir auch darüber gesprochen haben, wie wir ein Buch über KI-Technologien schreiben könnten, wird auch ein Artikel über die Zukunft der KI auf dich zukommen.

Lust auf mehr Insights zu KI und Technologie?

Unsere Projekte zur KI
KI-Update mit Sebastian Heinz von statworx
Mensch vs. KI - Finanzberatung der Zukunft?

Unsere Quellen für dein Wissen

Anyoha, R. (2020, April 23). The History of Artificial Intelligence. Science in the News. https://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/

Bench-Capon, T., Araszkiewicz, M., Ashley, K., Atkinson, K., Bex, F., Borges, F., Bourcier, D., Bourgine, P., Conrad, J. G., Francesconi, E., Gordon, T. F., Governatori, G., Leidner, J. L., Lewis, D. D., Loui, R. P., McCarty, L. T., Prakken, H., Schilder, F., Schweighofer, E., . . . Wyner, A. Z. (2012). A history of AI and Law in 50 papers: 25 years of the international conference on AI and Law. Artificial Intelligence and Law, 20(3), 215–319. https://doi.org/10.1007/s10506-012-9131-x

Buolamwini, J. (2018, January 21). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. PMLR. https://proceedings.mlr.press/v81/buolamwini18a.html

Datta, A. (2018). Discrimination in Online Personalization: A Multidisciplinary Inquiry. https://escholarship.org/uc/item/4rw2z9f8

Duan, Y., Edwards, J. S., & Dwivedi, Y. K. (2019). Artificial intelligence for decision making in the era of Big Data – evolution, challenges and research agenda. International Journal of Information Management, 48, 63–71. https://doi.org/10.1016/j.ijinfomgt.2019.01.021

Healey, J. (2020). Artificial Intelligence (1st ed.). Justin Healey. https://spinneypress.com.au/product/artificial-intelligence/

Hosny, A., Parmar, C., Quackenbush, J., Schwartz, L. H., & Aerts, H. J. W. L. (2018). Artificial intelligence in radiology. Nature Reviews Cancer, 18(8), 500–510. https://doi.org/10.1038/s41568-018-0016-5

Huang, M. H., & Rust, R. T. (2018). Artificial Intelligence in Service. Journal of Service Research, 21(2), 155–172. https://doi.org/10.1177/1094670517752459

Hunkenschroer, A. L., & Luetge, C. (2022). Ethics of AI-Enabled Recruiting and Selection: A Review and Research Agenda. Journal of Business Ethics, 178(4), 977–1007. https://doi.org/10.1007/s10551-022-05049-6

John-Mathews, J. M., Cardon, D., & Balagué, C. (2022). From Reality to World. A Critical Perspective on AI Fairness. Journal of Business Ethics, 178(4), 945–959. https://doi.org/10.1007/s10551-022-05055-8

Kreutzer, R. T., & Sirrenberg, M. (2019). Künstliche Intelligenz verstehen: Grundlagen – Use-Cases – unternehmenseigene KI-Journey (1. Aufl. 2019). Springer Gabler.

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342

One Hundred Year Study on Artificial Intelligence. (n.d.). One Hundred Year Study on Artificial Intelligence (AI100). https://ai100.stanford.edu/2016-report

Russell, S., & Norvig, P. (1995). Artificial intelligence: a modern approach. Choice Reviews Online, 33(03), 33–1577. https://doi.org/10.5860/choice.33-1577

TURING, A. M. (1950). I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind, LIX(236), 433–460. https://doi.org/10.1093/mind/lix.236.433

Wagman, M. (1999). The Human Mind According to Artificial Intelligence: Theory, Research, and Implications. Praeger Publishers.

Wennker, P. (2020). Künstliche Intelligenz in der Praxis: Anwendung in Unternehmen und Branchen: KI wettbewerbs- und zukunftsorientiert einsetzen (1. Aufl. 2020). Springer Gabler.