Ocena brak
Co to jest sztuczna inteligencja?
Motyw komputera tak inteligentnego, że potrafi zdominować swych twórców - ludzi, jest dobrze znany w literaturze i kinie.
Jednak prawdą jest, że naukowcy i inżynierowie od dłuższego już czasu badają relacje pomiędzy ludzkim myśleniem a komputerowym obliczaniem. Tę gałąź technologii określamy mianem sztucznej inteligencji.
Komputery programuje się tak, że zadanie do wykonania dzielone jest na proste, uporządkowane sekwencje instrukcji zwane algorytmami. W takich warunkach niektóre zadania - jak monotonne obliczenia - komputer wykonuje znacznie lepiej, szybciej i dokładniej niż człowiek. W 1997 roku komputer Deep Blue zmierzył się z wybitnym szachistą mistrzem świata, Garrim Kasparowem. Komputer zaprogramowano w taki sposób, by przeanalizował wszystkie możliwe posunięcia w danym momencie gry i tą drogą wybrał najkorzystniejszą strategię. Po serii partii komputer wygrał z człowiekiem jednym punktem. Jednak nie wszystkie zadania można łatwo opisać algorytmami. Jeśli chodzi, na przykład, o ludzkie rozumowanie, jego symulacja przez maszynę znacznie wykracza poza możliwości jakiegokolwiek produkowanego dziś komputera. Nie wydaje się, aby mogło się to szybko zmienić.
W każdej sytuacji ludzki mózg musi wykonywać niezliczone skomplikowane operacje, by dzięki temu w odpowiedni, inteligentny sposób na ową sytuację zareagować. Gdy rozmawiamy z inną osobą wytwarzamy dźwięki i korzystamy z języka, w którym podobnie brzmiące wyrazy mogą znaczyć zgoła różne rzeczy, lub też różne wyrazy mogą być użyte do opisania tego samego zjawiska. Komunikacja zaś to nie tylko mowa, równie istotne są choćby mimika twarzy czy też intonacja wypowiadanych słów. Mózg interpretuje owe niewerbalne sygnały bardzo łatwo i bezbłędnie, jednak musi sobie poradzić ze znacznie większą liczbą powiązanych ze sobą czynników - zmiennych - niż w wypadku zadań, gdzie rozwiązanie i decyzja są wynikiem wykonywania powtarzających się obliczeń. Im więcej dowiemy się na temat sposobu, w jaki nasz mózg rozwiązuje takie problemy, tym większa szansa, że inżynierom uda się w końcu stworzyć maszynę, która będzie mogła symulować ludzkie reakcje w różnych sytuacjach i efektywnie radzić sobie ze skomplikowanymi zadaniami. Wciąż wzrastająca prędkość działania, a także moc obliczeniowa komputerów zdają się przybliżać nas do tego trudnego celu. Być może niedługo niektóre wizje stworzone przez autorów filmów takich jak Matrix urzeczywistnią się.
Rozwój sztucznej inteligencji
Jeden z pierwszych eksperymentów nad zagadnieniami sztucznej inteligencji przeprowadził brytyjski matematyk Alan Turing (1912-1954). Jego doświadczenie, nazwane testem Turinga, przeprowadzono w 1950 roku. W jednym pomieszczeniu umieszczono maszynę, w drugim zaś człowieka, stanowiącego tu swoisty czynnik kontrolny. Turing komunikował się z maszyną i człowiekiem z trzeciego pokoju, w taki sposób, który uniemożliwiał mu rozróżnienie, kto odpowiada na dane pytanie. Po zadaniu serii pytań kontrolnych Turing analizował otrzymane wyniki. Jeśli odpowiedzi maszyny i człowieka byłyby takie same, to maszynę można by określić mianem inteligentnej.
Test Turinga miał wiele słabych punktów. Zupełnie ignorował takie ludzkie cechy jak postrzeganie bądź możliwość odpowiadania niezgodnie z prawdą. Błędem poważniejszym było to, że Turing założył, iż maszynę można nazwać inteligentną, jeśli spełni kilka wymogów i wygeneruje poprawną odpowiedź. Nie wziął w ogóle pod uwagę konieczności zrozumienia pytania. Jednak mimo tych obiekcji test Turinga z pewnością stanowił zasadniczy punkt wyjścia do badań nad zagadnieniami sztucznej inteligencji.
Pierwsze osiągnięcie odnotowano w 1955 roku, gdy w Santa Monica w Kalifornii Herbert Simon, Allen Newell oraz J. C. Shaw, pracujący dla korporacji RAND, opracowali pierwsze oprogramowanie dla sztucznej inteligencji - Logic Theorist. Program Simona, Newella i Shawa wykorzystywał zasady heurystyki, by wybrać najlepszą spośród danych możliwości. Istniejące wówczas języki programowania, takie jak FORTRAN, były przystosowane do wykonywania obliczeń numerycznych - Logic Theorist przetwarzał informację „symboliczną" metodami przetwarzania list danych. Wkrótce John McCarthy z Massachusetts Institute of Technology opracował na jego podstawie nowy język programowania LISP, który stał się standardem w dziedzinie badań nad sztuczną inteligencją.
W 1956 roku na konferencji w New Hampshire powołano oficjalnie do życia dyscyplinę naukową zajmującą się badaniem sztucznej inteligencji i stworzono zasady, które miały ujednolicić metodologię i zjednoczyć badaczy pracujących nad tymi zagadnieniami. Konferencja zaowocowała stwierdzeniem, że: „ludzki umysł nie dotyka świata fizycznie, jednak interpretuje i obrabia informacje dostarczane mu poprzez zmysły. Podobnej obróbki informacji może dokonać również komputer."