Geschichte der Künstlichen Intelligenz

Die Geschichte der künstlichen Intelligenz (KI) reicht bis in die 1950er Jahre zurück, als der Begriff erstmals geprägt wurde. Künstliche Intelligenz bezieht sich auf die Entwicklung von Computern oder Maschinen, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern.

Die Anfänge der KI wurden durch den Wunsch der Forscher, die menschliche Denkfähigkeit auf Maschinen zu übertragen, angetrieben. Diese Entwicklung hat zu wichtigen Meilensteinen geführt, darunter die Entwicklung von Expertensystemen, neuronaler Netzwerke und maschinellem Lernen.

Heute findet künstliche Intelligenz Anwendung in Bereichen wie Spracherkennung, Bilderkennung, Robotik und vielem mehr. Die Geschichte der künstlichen Intelligenz ist ein faszinierendes Kapitel in der technologischen Entwicklung und wirkt sich auf viele Bereiche unseres täglichen Lebens aus.

1931

Kurt Gödel zeigt, dass alle wahren Aussagen der Prädikatenlogik erster Ordnung beweisbar sind. Er zeigt aber auch, dass es wahre Aussagen in der Logik höherer Ordnung gibt, welche nicht beweisbar sind. Damit reicht die Anwendung von Logik nicht aus, um alle Aufgaben der Künstlichen Intelligenz zu lösen.

1937

Alan Turing zeigt mit dem Halteproblem die Grenzen von intelligenten Maschinen auf. Das Halteproblem beschäftigt sich mit der Frage, ob ein Algorithmus terminiert, also bis zum Ende durchläuft. Er beweist, dass das Halteproblem nicht für alle Algorithmen gelöst werden kann.

1943

Warren McCulloch und Walter Pitts entwickeln ein erstes Modell von Neuronen und verknüpfen diese zu neuronalen Netzen und ziehen die Verbindung zur Logik.

1950

Alan Turing wirft in seinem Artikel „Computing Machinery and Intelligence“ die Frage nach maschineller Intelligenz auf. Er definiert dabei die Intelligenz von Maschinen mit dem Turing Test und beschreibt maschinelles Lernen und genetische Algorithmen.

1951

Marvin Minsky entwickelt ein maschinelles neuronales Netzwerk mit 3000 Elektronenröhren (vacuum tubes), um 40 Neuronen zu simulieren.

1955

Arthur Samuel von IBM programmiert ein selbstlernendes Dame-Programm, welches besser spielt, als sein Entwickler. Damit war es das erste Computerprogramm, welches selbst lernte ein Spiel zu spielen.

1956

Die von John McCarthy veranstaltete Konferenz am Dartmouth Kollege markiert den Beginn des Forschungsfelds der Künstlichen Intelligenz und führt den Begriff erstmalig ein. Newell und Simon von der Carnegie Mellon Universität (CMU) präsentierten Logic Theorist, das erste symbol-verarbeitende Computerprogramm. Außerdem nahmen Marvin Minsky, Nathaniel Rochester und Claude Shannon teil.

1957

Frank Rosenblatt entwickelt mit Perceptron ein frühes neuronales Netzwerk.

1958

John McCarthy erfindet am Massachusetts Institute of Technology (MIT) die high-level Sprache LISP. Er schreibt erste genetische Algorithmen, welche in der Lage sind sich selbst zu verändern, indem sie Statements zum Quellcode hinzufügen und entfernen. Allerdings haben sich genetische Algorithmen bis heute nicht durchgesetzt, da sie aufgrund ihrer Komplexität dazu neigen nach der Veränderung nicht mehr zu funktionieren.

1959

Gelernter von IBM programmiert den Geometry Theorem Prover.

1961

Newell und Simon entwickeln den General Problem Solver (GPS), welcher menschliche Gefühle imitiert.

1963

McCarthy gründet das AI Labor an der Stanford University.

1965

Robinson erfindet den resolution calculus für Prädikatenlogik. Dadurch konnten viele Theoreme der Logik programmiert und bewiesen werden.

1966

Joseph Weizenbaum entwickelt ELIZA, einen frühen Chatbot, der in natürlicher Sprache mit Menschen kommuniziert.

1969

Minsky und Papert zeigen, dass das Perceptron, ein sehr einfaches neuronales Netzwerk, nur lineare Funktionen abbilden kann.

1972

Alain Colmerauer erfindet die Logik Programmiersprache PROLOG, welche LISP ablöst.

Der britische Physiker de Dombal entwickelt ein Expertensystem zur Diagnose von akuten abdominalen Schmerzen, welches jedoch relativ unbeachtet bleibt.

1976

An der Stanford University entwickeln Edward Shortliffe und Bruce Buchanan das medizinische Expertensystem MYCIN zur Unterstützung von Ärzten bei der Diagnose von Infektionskrankheiten und der Empfehlung einer entsprechenden Antibiotikatherapie. Dabei ist das System in der Lage mit Unsicherheiten umzugehen.

1981

Japan beginnt das „Fifth Generation Project“ mit dem Ziel eine mächtige Prolog Maschine zu entwickeln.

1982

R1, ein Expertensystem für die Konfiguration von Computern, welches Digital Equipment Corporation 40 Millionen Dollar im Jahr spart.

1986

Renaissance der Neuronalen Netzwerke durch Rumelhart, Hinton, Sejnowski und andere. Nettalk lernt texte laut vorzulesen.

1990

Pearl, Cheeseman, Whittaker, Spiegelhalter bringen mit den Bayesian networks die Wahrscheinlichkeitstheory zur Künstlichen Intelligenz. Multi-agent Systeme erhalten Bedeutung.

1992

Tesauros TD-Gammon Program demonstriert die Vorteile des Reinforcement Learnings am Spiel Backgammon.

1993

Die Weltweite RoboCup Initiative baut Fußball-spielende autonome Roboter.

1995

Vapnik entwickelt support vector machines auf Grundlage der statistischen Lerntheorie, welche heute sehr bedeutend sind.

1997

Der von IBM entwickelte Schachcomputer Deep Blue besiegt den Schachweltmeister Garry Kasparov in einem Wettkampf aus sechs Partien unter Turnierbedingungen.

Der erste internationale RoboCup Wettbewerb wird in Japan ausgetragen.

2003

Die RoboCup Roboter zeigen eindrucksvoll was AI und Robotic gemeinsam leisten können.

2006

Service Robotik wird eine bedeutendes Feld der KI Forschung. In den folgenden Jahren werden selbstlernende Roboter entwickelt, welche das Gelernte generalisiert unabhängig von der Umgebung oder Veränderung umsetzen können.

2010

Autonome Roboter beginnen ihre Policies zu lernen.

2011

Der von IBM entwickelte Watson gewinnt die Quizshow Jeopardy! gegen menschliche Teilnehmer.

2012

Google’s neuronales Netzwerk-Modell „Google Brain“ erkennt Katzen in YouTube-Videos ohne spezifische Programmierung.

2014

DeepMind’s AlphaGo besiegt den Go-Weltmeister Lee Sedol in einem fünfteiligen Wettkampf.

2017

OpenAI veröffentlicht GPT-2, ein leistungsstarkes Sprachmodell, das große Aufmerksamkeit erregt.

2020

OpenAI veröffentlicht GPT-3, ein noch leistungsstärkeres Sprachmodell, das neue Maßstäbe setzt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert