Die Geschichte der künstlichen Intelligenz (KI) reicht bis in die 1950er Jahre zurück, als der Begriff erstmals geprägt wurde. Künstliche Intelligenz bezieht sich auf die Entwicklung von Computern oder Maschinen, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern.
Die Anfänge der KI wurden durch den Wunsch der Forscher, die menschliche Denkfähigkeit auf Maschinen zu übertragen, angetrieben. Diese Entwicklung hat zu wichtigen Meilensteinen geführt, darunter die Entwicklung von Expertensystemen, neuronaler Netzwerke und maschinellem Lernen.
Heute findet künstliche Intelligenz Anwendung in Bereichen wie Spracherkennung, Bilderkennung, Robotik und vielem mehr. Die Geschichte der künstlichen Intelligenz ist ein faszinierendes Kapitel in der technologischen Entwicklung und wirkt sich auf viele Bereiche unseres täglichen Lebens aus.
1931
Kurt Gödel zeigt, dass alle wahren Aussagen der Prädikatenlogik erster Ordnung beweisbar sind. Er zeigt aber auch, dass es wahre Aussagen in der Logik höherer Ordnung gibt, welche nicht beweisbar sind. Damit reicht die Anwendung von Logik nicht aus, um alle Aufgaben der Künstlichen Intelligenz zu lösen.
1937
Alan Turing zeigt mit dem Halteproblem die Grenzen von intelligenten Maschinen auf. Das Halteproblem beschäftigt sich mit der Frage, ob ein Algorithmus terminiert, also bis zum Ende durchläuft. Er beweist, dass das Halteproblem nicht für alle Algorithmen gelöst werden kann.
1943
Warren McCulloch und Walter Pitts entwickeln ein erstes Modell von Neuronen und verknüpfen diese zu neuronalen Netzen und ziehen die Verbindung zur Logik.
1950
Alan Turing wirft in seinem Artikel „Computing Machinery and Intelligence“ die Frage nach maschineller Intelligenz auf. Er definiert dabei die Intelligenz von Maschinen mit dem Turing Test und beschreibt maschinelles Lernen und genetische Algorithmen.
1951
Marvin Minsky entwickelt ein maschinelles neuronales Netzwerk mit 3000 Elektronenröhren (vacuum tubes), um 40 Neuronen zu simulieren.
1955
Arthur Samuel von IBM programmiert ein selbstlernendes Dame-Programm, welches besser spielt, als sein Entwickler. Damit war es das erste Computerprogramm, welches selbst lernte ein Spiel zu spielen.
1956
Die von John McCarthy veranstaltete Konferenz am Dartmouth Kollege markiert den Beginn des Forschungsfelds der Künstlichen Intelligenz und führt den Begriff erstmalig ein. Newell und Simon von der Carnegie Mellon Universität (CMU) präsentierten Logic Theorist, das erste symbol-verarbeitende Computerprogramm. Außerdem nahmen Marvin Minsky, Nathaniel Rochester und Claude Shannon teil.
1957
Frank Rosenblatt entwickelt mit Perceptron ein frühes neuronales Netzwerk.
1958
John McCarthy erfindet am Massachusetts Institute of Technology (MIT) die high-level Sprache LISP. Er schreibt erste genetische Algorithmen, welche in der Lage sind sich selbst zu verändern, indem sie Statements zum Quellcode hinzufügen und entfernen. Allerdings haben sich genetische Algorithmen bis heute nicht durchgesetzt, da sie aufgrund ihrer Komplexität dazu neigen nach der Veränderung nicht mehr zu funktionieren.
1959
Gelernter von IBM programmiert den Geometry Theorem Prover.
1961
Newell und Simon entwickeln den General Problem Solver (GPS), welcher menschliche Gefühle imitiert.
1963
McCarthy gründet das AI Labor an der Stanford University.
1965
Robinson erfindet den resolution calculus für Prädikatenlogik. Dadurch konnten viele Theoreme der Logik programmiert und bewiesen werden.
1966
Joseph Weizenbaum entwickelt ELIZA, einen frühen Chatbot, der in natürlicher Sprache mit Menschen kommuniziert.
1969
Minsky und Papert zeigen, dass das Perceptron, ein sehr einfaches neuronales Netzwerk, nur lineare Funktionen abbilden kann.
1972
Alain Colmerauer erfindet die Logik Programmiersprache PROLOG, welche LISP ablöst.
Der britische Physiker de Dombal entwickelt ein Expertensystem zur Diagnose von akuten abdominalen Schmerzen, welches jedoch relativ unbeachtet bleibt.
1976
An der Stanford University entwickeln Edward Shortliffe und Bruce Buchanan das medizinische Expertensystem MYCIN zur Unterstützung von Ärzten bei der Diagnose von Infektionskrankheiten und der Empfehlung einer entsprechenden Antibiotikatherapie. Dabei ist das System in der Lage mit Unsicherheiten umzugehen.
1981
Japan beginnt das „Fifth Generation Project“ mit dem Ziel eine mächtige Prolog Maschine zu entwickeln.
1982
R1, ein Expertensystem für die Konfiguration von Computern, welches Digital Equipment Corporation 40 Millionen Dollar im Jahr spart.
1986
Renaissance der Neuronalen Netzwerke durch Rumelhart, Hinton, Sejnowski und andere. Nettalk lernt texte laut vorzulesen.
1990
Pearl, Cheeseman, Whittaker, Spiegelhalter bringen mit den Bayesian networks die Wahrscheinlichkeitstheory zur Künstlichen Intelligenz. Multi-agent Systeme erhalten Bedeutung.
1992
Tesauros TD-Gammon Program demonstriert die Vorteile des Reinforcement Learnings am Spiel Backgammon.
1993
Die Weltweite RoboCup Initiative baut Fußball-spielende autonome Roboter.
1995
Vapnik entwickelt support vector machines auf Grundlage der statistischen Lerntheorie, welche heute sehr bedeutend sind.
1997
Der von IBM entwickelte Schachcomputer Deep Blue besiegt den Schachweltmeister Garry Kasparov in einem Wettkampf aus sechs Partien unter Turnierbedingungen.
Der erste internationale RoboCup Wettbewerb wird in Japan ausgetragen.
2003
Die RoboCup Roboter zeigen eindrucksvoll was AI und Robotic gemeinsam leisten können.
2006
Service Robotik wird eine bedeutendes Feld der KI Forschung. In den folgenden Jahren werden selbstlernende Roboter entwickelt, welche das Gelernte generalisiert unabhängig von der Umgebung oder Veränderung umsetzen können.
2010
Autonome Roboter beginnen ihre Policies zu lernen.
2011
Der von IBM entwickelte Watson gewinnt die Quizshow Jeopardy! gegen menschliche Teilnehmer.
2012
Google’s neuronales Netzwerk-Modell „Google Brain“ erkennt Katzen in YouTube-Videos ohne spezifische Programmierung.
2014
DeepMind’s AlphaGo besiegt den Go-Weltmeister Lee Sedol in einem fünfteiligen Wettkampf.
2017
OpenAI veröffentlicht GPT-2, ein leistungsstarkes Sprachmodell, das große Aufmerksamkeit erregt.
2020
OpenAI veröffentlicht GPT-3, ein noch leistungsstärkeres Sprachmodell, das neue Maßstäbe setzt.