>>     A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   R   S   T   U   W   Z     <<

PARRY - obok ELIZY, jeden z najsławniejszych klasycznych chatbotów, czyli programów symulujących człowieka, z którym można porozmawiać za pomocą interfejsu tekstowego.
PARRY został napisany w 1972 roku przez psychiatrę Kennetha Colby'ego. Zadaniem programu było symulowanie człowieka chorego na schizofrenię paranoidalną.
Seymour Papert - (ur. 1 marca 1928 w Pretorii), matematyk i informatyk pochodzący z Afryki Południowej, badacz sztucznej inteligencji.
Wychował się i uczył w Południowej Afryce, gdzie aktywnie występował przeciwko apartheidowi. Obecnie mieszka w Maine (USA). Znany jest jako autor języka programowania LOGO, a także jeden z pionierów AI.
Matematyk MIT, autor wielu prac z zakresu matematyki, AI, edukacji, procesów poznawania (zwłaszcza u dzieci), współpracownik Marvina Minsky'ego, został nazwany przez Minsky'ego "najwybitniejszym żyjącym dydaktykiem matematyki".
Perceptron - sieć neuronowa najprostszego typu. Pojęcie to stosowane jest zamiennie do określenia sieci składającej się z:
  • pojedynczego neuronu McCullocha-Pittsa
  • pewnej liczby neuronów wejściowych, których wyjścia połączone są z wejściami pewnej liczby neuronów wyjściowych; mimo iż ten typ perceptronów bywa nazywany perceptronem dwuwarstwowym, zwykle określa się go mianem perceptronu jednowarstwowego, ponieważ właściwą warstwą dokonującą sumowania i obliczania wyjścia według wartości funkcji aktywacji jest tylko warstwa druga
  • wielu warstw neuronów, gdzie wyjścia poprzedniej warstwy łączą się z wejściami kolejnej; są to tak zwane perceptrony wielowarstwowe.
Działanie perceptronu polega na klasyfikowaniu danych pojawiających się na wejściu i ustawianiu stosownie do tego wartości wyjścia. Przed używaniem perceptron należy wytrenować podając mu przykładowe dane na wejście i modyfikując w odpowiedni sposób wagi wejść i połączeń między warstwami neuronów, tak aby wartość na wyjściu przybierała pożądane wartości.
Perceptrony mogą klasyfikować dane na zbiory, które są liniowo separowalne. Własność ta uniemożliwia na przykład wytrenowanie złożonego z jednego neuronu perceptronu, który wykonywałby logiczną operację XOR na wartościach wejść.
Pojęcie perceptronu zostało wprowadzone przez Franka Rosenblatta w roku 1958. Perceptron zbudowany przez niego wraz z Charlesem Wightmanem był częściowo elektromechanicznym, częściowo elektronicznym urządzeniem, którego przeznaczeniem było rozpoznawanie znaków alfanumerycznych. Innowacją było tu zastosowanie procesu uczenia się jako metody programowania systemu. W roku 1969 Marvin Minsky i Seymour Papert wykazali ograniczenia perceptronów, co spowodowało długotrwały impas w pracach nad sztucznymi sieciami neuronowymi.
Programowanie ewolucyjne - (ang. Evolutionary Programming, EP) jest podzbiorem algorytmów ewolucyjnych.
Podstawy programowania ewolucyjnego opracował Lawrence Fogel, zaś rozwinął je jego syn David Fogel. Celem EP miał być rozwój sztucznej inteligencji, w sensie rozwoju możliwości przewidywania zmian w otoczeniu. Otoczenie opisywane było sekwencją symboli, a algorytm ewolucyjny miał tworzyć nowy symbol. Wyjściowy symbol maksymalizował funkcję wypłaty oceniającą dokładność dokonanego przewidywania.
Reprezentacje używane w programowaniu ewolucyjnym są zwykle dopasowane do domeny problemu. Najczęściej wykorzystywaną reprezentacją jest utworzony z liczb rzeczywistych wektor o stałej długości. Zasadnicza różnica między programowaniem ewolucyjnym a innymi podejściami (GA, GP, ES) polega na tym, że nie zachodzi tu wymiana materiału pomiędzy poszczególnymi członkami populacji. Wykorzystywana jest jedynie mutacja.
Programowanie genetyczne - (ang. Genetic Programming, GP) to zautomatyzowana metoda mająca na celu tworzenie programów komputerowych, w oparciu o ogólną definicję problemu. Innymi słowy programowanie genetyczne pozwala, w oparciu o wysokopoziomową definicję mówiącą co ma być zrobione, automatycznie stworzyć program, który owo zagadnienie rozwiąże.
Po raz pierwszy programowanie genetyczne zostało przedstawione w pracy Michaela L. Cramera w 1985 r.[1]. Nieco później zostało ponownie wynalezione przez Jürgena Schmidhubera w 1987 r.[2] Po raz trzeci GP zostało odkryte i opisane przez Johna Koza, w książce zatytułowanej: Genetic Programming: On the Programming of Computers by Means of Natural Selection (1992). Koza silnie zaangażował się w tematykę GP i napisał na ten temat wiele artykułów i książek, a tym samym spopularyzował tę metodę w świecie.
Prospector - system ekspertowy wykorzystywany do wspomagania prac geologów. Prace nad systemem rozpoczęły się w 1974 i były kontynuowane do 1983 roku. System ten został opracowany przez grupę naukowców ze Stanford Research Institute. Napisano go w języku Interlisp (dialekt języka Lisp). Podstawowym sposobem reprezentacji wiedzy były reguły. Jego baza wiedzy liczyła około 1000 reguł. Prawdopodobnie największym osiągnięciem systemu Prospector było odkrycie dużych złóż molibdenu. Ten fakt potwierdzał praktyczną skuteczność technologii systemów ekspertowych w rozwiązywaniu specjalistycznych problemów. System nie stał się systemem w pełni komercyjnym, osiągnął status prototypu produkcyjnego.
Powrót
O nas
Mapa Strony
Kontakt
 

TA STRONA UŻYWA COOKIE

X Nie pokazuj więcej
Dowiedz się więcej o celu ich używania w przeglądarce.
Korzystając ze strony wyrażasz zgodę na używanie cookie, zgodnie z aktualnymi ustawieniami przeglądarki