>>     A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   R   S   T   U   W   Z     <<

Chatbot - program komputerowy symulujący człowieka, z którym można prowadzić rozmowę przy użyciu języka naturalnego i interfejsu tekstowego. Zazwyczaj zadaniem chatbota jest takie prowadzenie rozmowy, aby użytkownik (rozmówca) miał wrażenie, że rozmawia z żywym, inteligentnym człowiekiem.
Chiński pokój, argument chińskiego pokoju - eksperyment myślowy zaproponowany przez amerykańskiego filozofa i językoznawcę Johna Searle'a i przedstawiony w jego pracy z 1980 roku pt. Minds, Brains, and Programs, mający pokazać, że nawet efektywne symulacje komputerowe nie urzeczywistniają prawdziwego rozumu, odkąd wykonywanie różnorodnych zadań (np. obliczeniowych) nie musi opierać się na rozumieniu ich przez wykonawcę. Służy on przeciwnikom teorii tzw. mocnej sztucznej inteligencji jako kontrargument. U podstaw eksperymentu stoi niezgodność między syntaksą a semantyką.
CommonKADS - metodologia wspierająca strukturalną inżynierię wiedzy. Metodologia ta od jakiegoś czasu jest stopniowo rozwijana i sprawdzana przez wiele firm i uniwersytetów w ramach Europejskiego programu IT ESPRIT. Jest to propozycja standardu analizy wiedzy oraz wytwarzania systemów wiedzo-centrycznych, który uzyskał także uznanie w USA i Japonii.
Metodologia CommonKADS pozwala dostrzec szanse oraz zagrożenie w sposobie wytwarzania, dystrybucji i wykorzystywania zasobów wiedzy w danej organizacji. Dzięki temu możliwa jest szczegółowa analiza wiedzo-centrycznych zadań i procesów. CommonKADS proponuje także narzędzia do kooperacyjnego zarządzania wiedzą oraz wspiera tworzenie systemów z wiedzą.
Metodologia CommonKADS wprowadza strukturalne podejście do tworzenia systemów z wiedzą. Na podstawie doświadczeń, zbieranych przez szereg lat, sformułowano następujące zasady:
1. Inżynieria wiedzy konstruuje różnorodne modele wiedzy ludzkiej. Modele te koncentrują się na pewnych aspektach i ignorują szczegóły nieużyteczne.
2. Przy modelowaniu wiedzy należy koncentrować się na jej strukturze pojęciowej, a detale programistyczne pozostawić na później. Należy uwzględniać ludzi, a więc ekspertów i użytkowników, ich zachowania w miejscu pracy oraz szerszy kontekst organizacyjny rozwiązywania problemów.
3. Wiedza ma stabilną strukturę wewnętrzną, którą można analizować przez wyróżnienie specyficznych typów wiedzy i ról spełnianych przy rozwiązywaniu problemów przez ludzi.
4. Projekt systemu z wiedzą winien rozwijać się poprzez uczenie się na podstawie doświadczeń w kontrolowany, "spiralny" sposób.
Cyc - projekt z dziedziny sztucznej inteligencji (AI), mający na celu stworzenie kompletnej bazy wiedzy, tak zwanego zdrowego rozsądku. Ma to stanowić podstawę, która umożliwi programom AI, przeprowadzanie rozumowania podobnego do ludzkiego.
Projekt został zapoczątkowany w 1984 roku, przez dr Douga Lenata. Mimo iż nazwa "Cyc" (czyt. sajk) pochodzi od angielskiego słowa "encyclopedia" (encyklopedia), to baza wiedzy tworzona w ramach tego projektu zawiera dużo więcej informacji o opisywanych w niej obiektach, niż tylko proste definicje. Struktura bazy wiedzy pozwala na automatyczne przeprowadzenie rozumowania i wyciąganie wniosków. Wstępnie projekt był planowany na 10 lat, jednak po dziś dzień nadal jest aktywnie rozwijany i trudno powiedzieć czy zakończy się sukcesem. Obecnie Cyc jest własnością korporacji Cycorp. Jednym z pierwszych praktycznych zastosowań systemu jest CycSecure, który bada bezpieczeństwo rzeczywistej sieci komputerowej przeprowadzając symulacje ataków na tę sieć.
Powrót
O nas
Mapa Strony
Kontakt
 

TA STRONA UŻYWA COOKIE

X Nie pokazuj więcej
Dowiedz się więcej o celu ich używania w przeglądarce.
Korzystając ze strony wyrażasz zgodę na używanie cookie, zgodnie z aktualnymi ustawieniami przeglądarki