Sztuczna inteligencja

dział informatyki

Sztuczna inteligencja, SI (ang. artificial intelligence, AI) – inteligencja wykazywana przez urządzenia sztuczne (w przeciwieństwie do inteligencji naturalnej). John McCarthy jest uznawany za autora tego terminu, jednak koncepcje i badania sięgają wcześniejszych lat, a wkład w rozwój SI mieli również inni pionierzy, jak Alan Turing czy Marvin Minsky. W potocznym rozumieniu jest ona często używana w kontekście „prawdziwej sztucznej inteligencji”. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne[1][2]. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Robot Boston Dynamics, posiadający cechy sztucznej inteligencji, podczas testów armii Wielkiej Brytanii

Termin „sztuczna inteligencja” wymyślił John McCarthy w 1956 na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”[3]. Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.

Sztuczna inteligencja ma dwa podstawowe znaczenia:

Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów, niepoddających się numerycznej algorytmizacji[4]. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:

Sztuczna inteligencja jest powiązana z obszarami uczenia maszynowego, logiki rozmytej, widzenia komputerowego, obliczeń ewolucyjnych, sieci neuronowych, robotyki i sztucznego życia.

Historia badań edytuj

W 1950 roku Alan Mathison Turing zaproponował, by możliwość udawania człowieka w zdalnej rozmowie uznać za test inteligencji maszyn (test Turinga)[5]. W latach 50. XX wieku zorganizowano pierwsze seminarium poświęcone AI (tzw. Warsztaty w Dartmouth(inne języki)), a także powstało pierwsze laboratorium AI na Carnegie Mellon University, założone przez Allena Newella i Herberta Simona i kilka lat później analogiczne laboratorium w Massachusetts Institute of Technology, założone przez Johna McCarthy’ego. Oba te laboratoria są wciąż wiodącymi ośrodkami AI na świecie.

Termin „sztuczna inteligencja” został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy’ego, który w 1955 r. zdefiniował go w następujący sposób:

„konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”.

Istnieją dwa podstawowe podejścia do pracy nad AI:

  • Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formie programów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np. algorytmy genetyczne, metody logiki rozmytej i wnioskowania bazującego na doświadczeniu.
  • Drugie to podejście subsymboliczne, polegające na tworzeniu struktur i programów „samouczących się”, bazujących na modelach sieci neuronowej i sieci asocjacyjnych, oraz opracowywanie procedur „uczenia” takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy „pytań”.

W trakcie wieloletniej pracy laboratoriów i zespołów AI stosujących oba podejścia do problemu, okazało się, że postęp w tej dziedzinie jest i będzie bardzo trudny i powolny. Często mimo niepowodzeń w osiąganiu celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowania LISP i Prolog. Laboratoria AI stały się też „rozsadnikiem” kultury hakerskiej.

Najnowsze podejście do problemów AI to rozwijanie różnych form inteligencji rozproszonej (wzorowanej na organizacjach ludzkich, np. personoidy) oraz tzw. agentów autonomicznych i „inteligentnych”. Dziedzina ta nosi nazwę Technologii Agentów Inteligentnych (ang. Intelligent Agent Technology).

94 proc. polskich specjalistów i specjalistek IT o różnych poziomach doświadczenia wykorzystuje narzędzia AI w codziennej pracy, natomiast 28,7 proc. obawia się, że w ciągu najbliższych kilku lat sztuczna inteligencja zastąpi ich w pracy[6].

Współczesne praktyczne zastosowania sztucznej inteligencji edytuj

  • Technologie oparte na logice rozmytej – powszechnie stosowane np. do sterowania przebiegiem procesów technologicznych w fabrykach w warunkach „braku wszystkich danych”.
  • Systemy eksperckie – systemy wykorzystujące bazę wiedzy (zapisaną w sposób deklaratywny) i mechanizmy wnioskowania do rozwiązywania problemów.
  • Maszynowe tłumaczenie tekstów – systemy tłumaczące nie dorównują człowiekowi, robią intensywne postępy, nadają się szczególnie do tłumaczenia tekstów technicznych.
  • Sieci neuronowe – stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem „inteligentnych przeciwników” w grach komputerowych.
  • Uczenie się maszyn – dział sztucznej inteligencji zajmujący się algorytmami potrafiącymi uczyć się, podejmować decyzje bądź nabywać wiedzę.
  • Eksploracja danych – omawia obszary powiązanie z potrzebami informacyjnymi, pozyskiwaniem wiedzy, stosowane techniki analizy i oczekiwane rezultaty.
  • Rozpoznawanie obrazów – stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych.
  • Rozpoznawanie mowy i rozpoznawanie mówców – stosowane już powszechnie na skalę komercyjną.
  • Rozpoznawanie pisma (OCR) – stosowane już masowo np. do automatycznego sortowania listów, rozpoznawania treści życiorysów[7] oraz w elektronicznych notatnikach.
  • Sztuczna twórczość – istnieją programy automatycznie generujące krótkie formy poetyckie, komponujące, aranżujące i interpretujące utwory muzyczne, które są w stanie skutecznie „zmylić” nawet profesjonalnych artystów, tak, że ci nie uznają utworów za sztucznie wygenerowane.
    • Generowanie obrazów – obrazy tworzone przez algorytmy komputerowe, wykorzystujące techniki uczenia maszynowego.
  • W ekonomii powszechnie stosuje się systemy automatycznie oceniające m.in. zdolność kredytową, profil najlepszych klientów czy planujące kampanie reklamowe. Systemy te poddawane są wcześniej automatycznemu uczeniu na podstawie posiadanych danych (np. klientów banku, którzy regularnie spłacali kredyt i klientów, którzy mieli z tym problemy).
  • Inteligentne interfejsy – stosowane do zautomatyzowanego zarządzania, monitorowania, raportowania oraz podjęcia prób rozwiązywania potencjalnych problemów w procesach technologicznych.
  • Prognozowanie i wykrywanie oszustw – przy użyciu m.in. regresji logistycznej systemy analizują zbiory danych w celu wychwytywania np. podejrzanych transakcji finansowych[8].
  • Analiza wideo w czasie rzeczywistym – znajduje zastosowanie m.in. w systemach monitoringu, systemach zarządzania ruchem samochodowym/pieszym i prognozowaniu takiego ruchu[9].

Udane i nieudane próby zastosowań edytuj

  • Istnieją programy grające w szachy na poziomie wyższym niż arcymistrzowski, a poziom arcymistrzowski osiągają obecnie programy działające na mobilnych urządzeniach[10]. Podobnie, stworzono program grający w Go, który pokonał światową czołówkę[11]. Wcześniej podobne zwycięstwa odnosiły programy grające w warcaby, w tym warcaby polskie[12]. Jak dotąd nie ma jednak programów skutecznie wygrywających np. w brydża sportowego.
  • Programy idealnie naśladujące ludzi, rozmawiające przy użyciu tekstu, które potrafiłyby przejść test Turinga. Istnieją programy do konwersacji z komputerem, ale każdy człowiek, który miał z nimi wcześniej do czynienia, w krótkim czasie jest w stanie zorientować się, że rozmawia z maszyną, a nie innym człowiekiem.
  • Programy skutecznie tłumaczące teksty literackie i mowę potoczną. Istnieją programy do automatycznego tłumaczenia, ale sprawdzają się one tylko w bardzo ograniczonym stopniu. Podstawową trudnością jest tu złożoność i niejasność języków naturalnych, a w szczególności brak zrozumienia przez program znaczenia tekstu.
  • Programy wykorzystujące sztuczną inteligencję do sprawdzania prac domowych uczniów, generujące wynik już po kilku sekundach. W teorii bardzo dobre rozwiązanie problemu, który może być czasochłonny przy dużej ilości prac do sprawdzenia. Niestety próba implementacji algorytmu nie powiodła się i na łamach portalu The Verge opisano historię[13], gdzie uczniowie złamali algorytm sztucznej inteligencji, która sprawdzała prace domowe uczniów, wykorzystując technikę obserwacji słów kluczowych.

Sztuczna inteligencja na ludzkim poziomie edytuj

Połowa przepytanych ekspertów uważa, iż istnieje 50% prawdopodobieństwo na osiągnięcie przez AI ludzkiego poziomu przed 2040 rokiem[14]. W mniejszej ankiecie 42% badaczy stwierdziło, że AI na ludzkim poziomie powstanie przed 2030 rokiem, a 67% – 2050 rokiem[15].

Wciąż brakuje naukowego konsensusu co do tego, czy maszyny mogą osiągnąć świadomość. Algorytmy sztucznej inteligencji mogą być programowane do symulowania zachowań, które ludzie uznają za inteligentne, ale to nie oznacza, że AI będzie świadoma. Świadomość jest złożonym zjawiskiem, który nawet w kontekście ludzkim nie jest jeszcze w pełni zrozumiały[16].

Grupa chińskich naukowców w pracy z 2015 roku ogłosiła, iż program komputerowy ich autorstwa osiągał lepszy wynik niż przeciętni ludzie (w tym dzieci) podczas testu IQ opartego na komunikatach werbalnych[17].

Również w roku 2015 amerykańscy badacze ogłosili stworzenie programu, który w zawodach z analizy danych pokonał 615 na 906 drużyn złożonych z ludzi[18][19].

Sztuczna inteligencja a uprzedzenia edytuj

Systemy sztucznej inteligencji mogą przejawiać różnego rodzaju uprzedzenia np. rasowe lub seksistowskie, ze względu na stronniczość danych testowych[20] i zjawisko nieświadomych uprzedzeń (unconscious bias). Może to rodzić poważne konsekwencje w zależności od miejsca, w którym sztuczna inteligencja ma zastosowanie.

Przykłady:

Problem uprzedzeń sztucznej inteligencji został przedstawiony w filmie dokumentalnym Zakodowane uprzedzenie(inne języki) z 2020 roku. Film dostępny jest w serwisie Netflix.

Sztuczna inteligencja w medycynie edytuj

Sztuczna inteligencja ma potencjał do transformacji medycyny. AI już teraz pomaga w wykonywaniu różnorodnych zadań, takich jak diagnostyka obrazowa, przewidywanie chorób, prowadzenie badań i zarządzanie danymi pacjentów. Algorytmy AI mogą analizować duże ilości danych szybciej i dokładniej niż ludzie, co może przynieść korzyści dla pacjentów i lekarzy.[24]


Kluczowe obszary, w których sztuczna inteligencja już teraz przyczynia się do postępów w medycynie, obejmują:

  • Komputerowe przewidywanie choroby: AI zaczyna grać kluczową rolę w przewidywaniu choroby, nawet zanim objawy staną się widoczne dla ludzkiego oka. Na przykład, modele komputerowe symulują rozwój biologiczny komórek rakowych, pomagając naukowcom zrozumieć czynniki prowadzące do rozwoju raka.
  • Asystenci radiologiczni zasilani przez AI: Zaawansowane technologie, takie jak AI-Rad Companion, służą jako inteligentni asystenci dla radiologów, automatycznie rozpoznając i zaznaczając kluczowe obszary na obrazach, co przyspiesza proces diagnozy.
  • Szybsza diagnoza chorób rzadkich: AI przyspiesza proces diagnozowania chorób rzadkich, analizując dane pacjentów i porównując je z danymi innych pacjentów na całym świecie.
  • Diagnostyka oparta na obrazowaniu: AI może analizować obrazy medyczne w ułamku czasu potrzebnego lekarzowi, wykrywając nawet subtelne nieprawidłowości.
  • Chatboty medyczne: Chatboty zasilane przez AI mogą dostarczać pacjentom wstępne diagnozy w oparciu o ich objawy, służąc jako pierwszy punkt kontaktu.
  • Przesiewowy test oparty na AI: AI odgrywa ważną rolę w wczesnym wykrywaniu chorób, analizując wyniki badań radiologicznych i identyfikując potencjalne nieprawidłowości.
  • Personalizacja leczenia: AI może pomóc w identyfikacji najlepszego sposobu leczenia dla konkretnego pacjenta, dostosowując terapie do indywidualnych potrzeb.
  • Monitorowanie pacjenta w czasie rzeczywistym: Urządzenia noszone, takie jak inteligentne zegarki, gromadzą dane o zdrowiu, które AI może analizować w czasie rzeczywistym, informując użytkownika o potencjalnych problemach zdrowotnych.
  • Automatyzacja procesów w placówkach medycznych: AI może zoptymalizować działanie placówek medycznych, pomagając w zarządzaniu zasobami i monitorowaniu zaopatrzenia.
  • Wspomaganie chirurgów podczas operacji: Roboty zasilane przez AI mogą asystować chirurgom podczas skomplikowanych procedur, zapewniając większą precyzję.
  • Leczenie chorób neurodegeneracyjnych: AI jest stosowana w badaniach nad chorobami neurodegeneracyjnymi, takimi jak choroba Alzheimera, pomagając w wczesnym wykrywaniu choroby i dostosowywaniu leczenia.

Dzięki takiemu wsparciu, sztuczna inteligencja ma potencjał do całkowitej transformacji medycyny, oferując lepsze narzędzia diagnostyczne, bardziej skuteczne leczenie i usprawnienie działania placówek medycznych.[25]

Zobacz też edytuj

Przypisy edytuj

  1. Computational Intelligence and Knowledge.
  2. Katalog der Deutschen Nationalbibliothek, portal.dnb.de [dostęp 2020-03-30].
  3. Andreas Kaplan; Michael Haenlein (2019) Siri, Siri in my Hand, who’s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1), 15-25.
  4. Flanagin A, Bibbins-Domingo K, Berkwits M. Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge. „Journal of American Medical Association”. 8 (329), s. 637-639, 2023. (ang.). 
  5. Christof Koch, Giulio Tononi. Test na świadomość. „Świat Nauki”. nr. 7 (239), s. 32–35, lipiec 2011. Prószyński Media. ISSN 0867-6380. 
  6. ChatGPT w pracy. Kto i jak korzysta z tego narzędzia i jaki mamy do niego stosunek?, interaktywnie.com [dostęp 2023-07-30] (pol.).
  7. Nirali Bhaliya, Jay Gandhi, Dheeraj Kumar Singh, NLP based Extraction of Relevant Resume using Machine Learning, maj 2020.
  8. Dmitry Babenko, Haralambos Marmanis, Tomasz Walczak, Inteligentna sieć. Algorytmy przyszłości, Gliwice: Wydawnictwo Helion, 2017, ISBN 978-83-283-3250-8, OCLC 995439215 [dostęp 2020-08-29].
  9. Real-time video analysis for surveillance and monitoring, NeuroSYS [dostęp 2021-05-21] [zarchiwizowane z adresu 2021-04-28] (ang.).
  10. Pocket Fritz 4 osiągnął poziom 2898 punktów.
  11. Program AlphaGo wygrał pierwszy mecz w Go z najlepszym graczem na świecie, Komputer Świat [dostęp 2016-03-28].
  12. The draughts program Buggy, www.buggy-online.com [dostęp 2017-11-26].
  13. Monica Chin, These students figured out their tests were graded by AI – and the easy way to cheat, The Verge, 2 września 2020 [dostęp 2020-09-06] (ang.).
  14. https://nickbostrom.com/papers/survey.pdf, str. 10.
  15. James Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, New York: Thomas Dunne Books, 2013, s. 152, ISBN 978-0312622374, OCLC 827256597.
  16. Czy sztuczna inteligencja może uzyskać świadomość?, AI o AI, 18 października 2023 [dostęp 2023-11-14] (pol.).
  17. Huazheng Wang i in: Solving Verbal Comprehension Questions in IQ Test by Knowledge-Powered Word Embedding. [dostęp 2015-07-05].
  18. http://groups.csail.mit.edu/EVO-DesignOpt/groupWebSite/uploads/Site/DSAA_DSM_2015.pdf.
  19. Deep Feature Synthesis: Towards Automating Data Science Endeavors [dostęp 2020-08-16].
  20. Thompson 2019 ↓, s. 317–360.
  21. Thompson 2019 ↓, s. 340–341.
  22. Thompson 2019 ↓, s. 343.
  23. Thompson 2019 ↓, s. 344–345.
  24. l, Czy sztuczna inteligencja może zastąpić lekarzy?, Medica, 12 czerwca 2023 [dostęp 2023-06-21] (pol.).
  25. https://www.aimarketing.pl/zastosowania-sztucznej-inteligencji-w-medycynie-przyszlosc-diagnostyki-i-leczenia/

Bibliografia edytuj

Linki zewnętrzne edytuj

Polskojęzyczne

  Nagrania na YouTube [dostęp 2023-11-30]:

Anglojęzyczne