Sztuczna inteligencja

dział informatyki

Sztuczna inteligencja, SI (ang. artificial intelligence, AI) – inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne[1][2]. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Hierarchia: (z ang.) AI zawiera ML, ML zawiera DL i LLM
Robot Boston Dynamics, posiadający cechy sztucznej inteligencji, podczas testów armii Wielkiej Brytanii

Termin „sztuczna inteligencja” wymyślił John McCarthy w 1956[3] na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”[4]. Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.

Sztuczna inteligencja ma dwa podstawowe znaczenia:

Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów, niepoddających się numerycznej algorytmizacji[5]. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:

Sztuczna inteligencja jest powiązana z obszarami uczenia maszynowego, logiki rozmytej, widzenia komputerowego, obliczeń ewolucyjnych, sieci neuronowych, robotyki i sztucznego życia.

Algorytmy sztucznej inteligencji często określane są mianem czarnej skrzynki, z powodu trudności w zrozumieniu ich działania, gdy ilość danych i parametrów jest duża. W przypadku, gdy mamy mały model, zrozumienie zasady działania nie sprawia problemu. Jednak gdy ilość danych i parametrów się zwiększa, jest to praktycznie niemożliwe, aby zrozumieć, w jaki sposób te algorytmy podejmują decyzje[6]. Były jednak próby opracowania matematycznej teorii, jak naprawdę działają te algorytmy (sieci neuronowe), z uwzględnieniem modelu GPT[7].

Techniki

edytuj

Sieci neuronowe

edytuj
 
Uproszczony schemat jednokierunkowej sieci neuronowej. Poszczególne „kółka” oznaczają sztuczne neurony, z wyjątkiem zielonych i żółtych, które oznaczają odpowiednio wejście i wyjście.

Sieć neuronowa opiera się na zbiorze połączeń, znanych również jako sztuczne neurony, które stanowią analogię neuronów w biologicznym mózgu. Jest ona trenowana do rozpoznawania wzorców, a po przeszkoleniu może rozpoznawać te wzorce w świeżych danych. W najprostszej postaci posiada wejście, co najmniej jedną ukrytą warstwę połączeń i wyjście. Każde połączenie posiada funkcję aktywacji, która pozwala na przesyłane informacji do następnej warstwy. Sieć jest zazwyczaj nazywana głęboką siecią neuronową, jeśli ma co najmniej 2 ukryte warstwy[8].

Jednokierunkowe sieci neuronowe pozwalają na przesył informacji tylko w jednym kierunku[8]. Rekurencyjne sieci neuronowe łączy z sobą wyjście z wejściem, co pozwala na tworzenie pamięci krótkotrwałej, a najbardziej popularnym rodzajem tych sieci jest długa pamięć krótkotrwała[8]. Konwolucyjne sieci neuronowe skupiają się na połączeniach pomiędzy neuronami, które są blisko siebie, co jest krytyczne w przetwarzaniu obrazów[8].

Uczenie głębokie

edytuj

Uczenie głębokie[9] używa wielu warstw sieci neuronowej, dzięki czemu możliwe jest operowanie na cechach wysokiego poziomu. Dla przykładu, w przetwarzaniu obrazu, niższe warstwy (bliżej wejścia) mogą wykrywać krawędzie natomiast wyższe warstwy (bliżej wyjścia) mogą przetwarzać koncepcje bliższe ludziom jak liczby, litery czy twarze[10].

Duże modele językowe

edytuj

Duże modele językowe (LLM) jak wstępnie przeszkolony transformator generatywny (GPT) generują tekst oparty na związkach semantycznych pomiędzy słowami i zdaniami. Tekstowe duże modele językowe bazują na dużym korpusie pobranym z różnych stron w Internecie. Wstępny trening polega na nauczeniu predykcji następnego tokena, po czym następuje docelowy trening mający na celu poprawę użyteczności, wiarygodności i poprawie bezpieczeństwa. Do tego celu stosowana jest technika RLHF. Według stanu na 2025 rok LLM-y są podatne na generowanie fałszywych informacji nazywanych halucynacjami, a sam problem potrafi się pogarszać w miarę używania tych modeli do rozumowania[11].

Historia badań

edytuj

Powstanie sztucznej inteligencji przewidziała Ada Lovelace w latach 40. XIX wieku[12].

W 1950 roku Alan Mathison Turing zaproponował, by możliwość udawania człowieka w zdalnej rozmowie uznać za test inteligencji maszyn (test Turinga)[13]. W latach 50. XX wieku zorganizowano pierwsze seminarium poświęcone SI (tzw. Warsztaty w Dartmouth(inne języki)), a także powstało pierwsze laboratorium AI na Carnegie Mellon University, założone przez Allena Newella i Herberta Simona i kilka lat później analogiczne laboratorium w Massachusetts Institute of Technology, założone przez Johna McCarthy’ego. Oba te laboratoria są wciąż wiodącymi ośrodkami SI na świecie.

Termin „sztuczna inteligencja” został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy’ego, który w 1955 r. zdefiniował go w następujący sposób:

„konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”.

Istnieją dwa podstawowe podejścia do pracy nad SI:

  • Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formie programów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np. algorytmy genetyczne, metody logiki rozmytej i wnioskowania bazującego na doświadczeniu.
  • Drugie to podejście subsymboliczne, polegające na tworzeniu struktur i programów „samouczących się”, bazujących na modelach sieci neuronowej i sieci asocjacyjnych, oraz opracowywanie procedur „uczenia” takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy „pytań”.

W trakcie wieloletniej pracy laboratoriów i zespołów SI stosujących oba podejścia do problemu, okazało się, że postęp w tej dziedzinie jest i będzie bardzo trudny i powolny. Często mimo niepowodzeń w osiąganiu celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowania LISP i Prolog. Laboratoria SI stały się też „rozsadnikiem” kultury hakerskiej.

Najnowsze podejście do problemów SI to rozwijanie różnych form inteligencji rozproszonej (wzorowanej na organizacjach ludzkich, np. personoidy) oraz tzw. agentów autonomicznych i „inteligentnych”. Dziedzina ta nosi nazwę Technologii Inteligentnych Agentów (ang. Intelligent Agent Technology).

Sztuczna inteligencja stała się bardzo popularna wraz z powstaniem interaktywnej sztucznej inteligencji w postaci ChatGPT.

94 proc. polskich specjalistów i specjalistek IT o różnych poziomach doświadczenia wykorzystuje narzędzia SI w codziennej pracy, natomiast 28,7 proc. obawia się, że w ciągu najbliższych kilku lat sztuczna inteligencja zastąpi ich w pracy[14].

Od czasów powstania ChatGPT, mamy do czynienia z wyścigiem AI, głównie dużych modeli językowych[15]. Najnowsze rozwiązania związane z tymi modelami to agenci AI, którzy dają możliwość wykonywania czynności, zazwyczaj poprzez komunikację z aplikacjami internetowymi[16] oraz protokół MCP stworzony przez firmę Anthropic(inne języki), który ułatwia komunikację modeli językowych z zewnętrznymi systemami lub usługami[17].

Sztuczna inteligencja to także spore wyzwanie dla osób, które na co dzień mają za zadanie testowanie takich systemów. Solidne podstawy oraz procesy związane ze sztuczną inteligencją są opisane w sylabusie ISTQB AI Testing[18].

Zastosowania

edytuj

Sztuczna inteligencja jest stosowana od dekad w różnych dziedzinach gospodarki. W 1980 rynek AI miał rozmiar liczony w setkach milionów dolarów, a w roku 1988 był szacowany na miliardy dolarów[8] i głównie skupiał się na zastosowaniach systemów eksperckich. W latach 90. XX wieku znajdowano coraz więcej zastosowań dla AI w technologiach informacyjnych[19] takich jak robotyka przemysłowa, aplikacje bankowe[20], diagnostyka medyczna[20], rozpoznawanie mowy[21] czy wyszukiwarka Google[22]. Kolejne dekady przyniosły dalsze zastosowania sztucznej inteligencji wraz z rosnącą mocą obliczeniową komputerów i wypracowaniem bardziej zaawansowanych technik[8]. Lata dwudzieste XXI wieku przyniosły ekspansję AI(inne języki)[23] .

W 2024 szacowano, że sztuczna inteligencja będzie miała wpływ na wzrost PKB w wysokości od 1,1 do 1,6% w przeciągu 10 lat[24]. W 2023 roku w Polsce 3,7% przedsiębiorstw wykorzystywało AI, wskaźnik ten był niższy niż średnia UE (8%)[25]. W Stanach Zjednoczonych w 2023 roku 3,8% przedsiębiorstw korzystało z AI do produkcji dóbr i usług[26]. W roku 2024 83% firm w Chinach i 48% firm w Polsce testowało lub wdrożyło generatywną sztuczną inteligencję w co najmniej jednym procesie biznesowym[27]. Łączna wartość nakładów publicznych na AI w latach 2013-2023 w USA wyniosła 5,233 mld USD, w Niemczech 278 mln USD i Polsce 55,92 mln USD[28]. Łączna wysokość prywatnych inwestycji na AI w 2024 roku w Stanach wyniosła 109,8 mld USD, w Europie 19,42 mld USD (w tym w Niemczech 1,97 mld USD), w Chinach 9,29 mld USD[28]. W 2024 roku udział Polski w globalnych prywatnych inwestycjach w sztuczną inteligencję wyniósł 0,05%[29].

Tworzenie kodu

edytuj

Sztuczna inteligencja może w znacznym stopniu pomóc programistom w pisaniu kodu programów[30]. Istnieją nawet ludzie, którzy piszą programy komputerowe w całości za pomocą sztucznej inteligencji jest to tzw. „vibe coding”, często nawet bez znajomości programowania[31], chociaż możliwości tej techniki są ograniczone. Sztuczna inteligencja, nie radzi sobie w bardziej złożonych zastosowaniach[32]. Chociaż istnieją obawy, że sztuczna inteligencja zastąpi programistów, jednak zdania na ten temat są podzielone[33]. Korzystanie ze sztucznej inteligencji do tworzenia kodu programów przypomina platformy typu No-Code, które nie zastąpiły ręcznego pisania aplikacji.

Generatywna sztuczna inteligencja

edytuj

Generatywna sztuczna inteligencja (GenAI) jest ogółem narzędzi, które korzystają z modeli generatywnych do tworzenia tekstu, obrazów, wideo czy innych formatów danych[34][35]. Do generowania zawartości korzysta się z inżynierii podpowiedzi[36]. Wyniki tych modeli są w stanie skutecznie „zmylić” nawet profesjonalnych artystów, tak, że ci nie uznają utworów za sztucznie wygenerowane.

Matematyka

edytuj

Duże modele językowe takie jak ChatGPT, Claude czy Mistral są coraz częściej używane w matematyce. Te modele probabilistyczne mają szeroki wachlarz użyć jednak mogą generować złe odpowiedzi przez halucynacje. Do ich treningu jest używana baza danych problemów matematycznych wraz z nadzorowanym dostrajaniem[37].

Ekonomia

edytuj

W ekonomii powszechnie stosuje się systemy automatycznie oceniające m.in. zdolność kredytową, profil najlepszych klientów czy planujące kampanie reklamowe. Systemy te poddawane są wcześniej automatycznemu uczeniu na podstawie posiadanych danych (np. klientów banku, którzy regularnie spłacali kredyt i klientów, którzy mieli z tym problemy).

Rozwiązania z zakresu AI są też używane w prognozowaniu i wykrywaniu oszustw. Przy użyciu m.in. regresji logistycznej systemy analizują zbiory danych w celu wychwytywania np. podejrzanych transakcji finansowych[38].

Wojskowość

edytuj

Sztuczna inteligencja znajduje zastosowanie w takich aspektach wojskowości jak autonomiczne systemy bojowe, wsparcie podejmowania decyzji i optymalizacji logistyki[39][40].

Wojskowe zastosowanie sztucznej inteligencji jest przyczyną wyścigu zbrojeń sztucznej inteligencji.

Medycyna

edytuj
 
Ramię robota chirurgicznego da Vinci

Sztuczna inteligencja ma potencjał do transformacji medycyny. SI już teraz pomaga w wykonywaniu różnorodnych zadań, takich jak diagnostyka obrazowa, przewidywanie chorób, prowadzenie badań i zarządzanie danymi pacjentów. Algorytmy SI mogą analizować duże ilości danych szybciej i dokładniej niż ludzie, co może przynieść korzyści dla pacjentów i lekarzy[41].

Kluczowe obszary, w których sztuczna inteligencja przyczynia się do postępów w medycynie, obejmują:
  • Komputerowe przewidywanie choroby: SI zaczyna grać kluczową rolę w przewidywaniu choroby, nawet zanim objawy staną się widoczne dla ludzkiego oka. Na przykład modele komputerowe symulują rozwój biologiczny komórek rakowych, pomagając naukowcom zrozumieć czynniki prowadzące do rozwoju raka.
  • Asystenci radiologiczni zasilani przez SI: Zaawansowane technologie, takie jak AI-Rad Companion, służą jako inteligentni asystenci dla radiologów, automatycznie rozpoznając i zaznaczając kluczowe obszary na obrazach, co przyspiesza proces diagnozy.
  • Szybsza diagnoza chorób rzadkich: SI przyspiesza proces diagnozowania chorób rzadkich, analizując dane pacjentów i porównując je z danymi innych pacjentów na całym świecie.
  • Diagnostyka oparta na obrazowaniu: SI może analizować obrazy medyczne w ułamku czasu potrzebnego lekarzowi, wykrywając nawet subtelne nieprawidłowości.
  • Chatboty medyczne: Chatboty zasilane przez SI mogą dostarczać pacjentom wstępne diagnozy na podstawie ich objawów, służąc jako pierwszy punkt kontaktu.
  • Przesiewowy test oparty na SI: SI odgrywa ważną rolę we wczesnym wykrywaniu chorób, analizując wyniki badań radiologicznych i identyfikując potencjalne nieprawidłowości.
  • Personalizacja leczenia: SI może pomóc w identyfikacji najlepszego sposobu leczenia dla konkretnego pacjenta, dostosowując terapie do indywidualnych potrzeb.
  • Monitorowanie pacjenta w czasie rzeczywistym: Urządzenia noszone, takie jak inteligentne zegarki, gromadzą dane o zdrowiu, które SI może analizować w czasie rzeczywistym, informując użytkownika o potencjalnych problemach zdrowotnych.
  • Automatyzacja procesów w placówkach medycznych: SI może zoptymalizować działanie placówek medycznych, pomagając w zarządzaniu zasobami i monitorowaniu zaopatrzenia.
  • Wspomaganie chirurgów podczas operacji: Roboty zasilane przez SI mogą asystować chirurgom podczas skomplikowanych procedur, zapewniając większą precyzję.
  • Leczenie chorób neurodegeneracyjnych: SI jest stosowana w badaniach nad chorobami neurodegeneracyjnymi, takimi jak choroba Alzheimera, pomagając we wczesnym wykrywaniu choroby i dostosowywaniu leczenia.

Dzięki temu wsparciu sztuczna inteligencja ma potencjał do całkowitej transformacji medycyny, oferując lepsze narzędzia diagnostyczne, bardziej skuteczne leczenie i usprawnienie działania placówek medycznych[42].

Sieci neuronowe są stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem „inteligentnych przeciwników” w grach komputerowych czy też przechodzą całe gry[43][44].

Istnieją programy grające w szachy na poziomie wyższym niż arcymistrzowski, a poziom arcymistrzowski osiągają obecnie programy działające na mobilnych urządzeniach[45]. Podobnie, stworzono program grający w Go, który pokonał światową czołówkę[46]. Wcześniej podobne zwycięstwa odnosiły programy grające w warcaby, w tym warcaby polskie[47]. Jak dotąd nie ma jednak programów skutecznie wygrywających np. w brydża sportowego.

Inne zastosowania sztucznej inteligencji

edytuj
  • Technologie oparte na logice rozmytej – powszechnie stosowane np. do sterowania przebiegiem procesów technologicznych w fabrykach w warunkach „braku wszystkich danych”.
  • Systemy eksperckie – systemy wykorzystujące bazę wiedzy (zapisaną w sposób deklaratywny) i mechanizmy wnioskowania do rozwiązywania problemów.
  • Maszynowe tłumaczenie tekstów – systemy tłumaczące nie dorównują człowiekowi, robią intensywne postępy, nadają się szczególnie do tłumaczenia tekstów technicznych.
  • Uczenie się maszyn – dział sztucznej inteligencji zajmujący się algorytmami potrafiącymi uczyć się, podejmować decyzje bądź nabywać wiedzę.
  • Eksploracja danych – omawia obszary powiązanie z potrzebami informacyjnymi, pozyskiwaniem wiedzy, stosowane techniki analizy i oczekiwane rezultaty.
  • Rozpoznawanie obrazów – stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych.
  • Rozpoznawanie mowy i rozpoznawanie mówców – stosowane już powszechnie na skalę komercyjną.
  • Rozpoznawanie pisma (OCR) – stosowane już masowo np. do automatycznego sortowania listów, rozpoznawania treści życiorysów[48] oraz w elektronicznych notatnikach.
  • Inteligentne interfejsy – stosowane do zautomatyzowanego zarządzania, monitorowania, raportowania oraz podjęcia prób rozwiązywania potencjalnych problemów w procesach technologicznych.
  • Analiza wideo w czasie rzeczywistym – znajduje zastosowanie m.in. w systemach monitoringu, systemach zarządzania ruchem samochodowym/pieszym i prognozowaniu takiego ruchu[49].

Nieudane próby zastosowań

edytuj

Programy wykorzystujące sztuczną inteligencję do sprawdzania prac domowych uczniów, generujące wynik już po kilku sekundach. W teorii bardzo dobre rozwiązanie problemu, który może być czasochłonny przy dużej ilości prac do sprawdzenia. Niestety, próba implementacji algorytmu nie powiodła się i na łamach portalu The Verge opisano historię[50], gdzie uczniowie złamali algorytm sztucznej inteligencji, która sprawdzała prace domowe uczniów, wykorzystując technikę obserwacji słów kluczowych.

Główny artykuł: Etyka sztucznej inteligencji.

Sztuczna inteligencja a uprzedzenia

edytuj

Systemy sztucznej inteligencji mogą przejawiać różnego rodzaju uprzedzenia np. rasowe lub seksistowskie, ze względu na stronniczość danych testowych[51] i zjawisko nieświadomych uprzedzeń (unconscious bias). Może to rodzić poważne konsekwencje w zależności od miejsca, w którym sztuczna inteligencja ma zastosowanie.

Przykłady:

Problem uprzedzeń sztucznej inteligencji został przedstawiony w filmie dokumentalnym Zakodowane uprzedzenie(inne języki) z 2020 roku. Film dostępny jest w serwisie Netflix[55].

Regulacja

edytuj

Regulacja i polityka dotycząca sztucznej inteligencji jest nowym problemem w jurysdykcjach na całym świecie[56]. Na rok 2022, większość krajów UE opublikowało swoją strategię AI, tak samo jak Kanada, Chiny, Japonia, Rosja i Stany Zjednoczone[57]. W 2024 Rada Europy wprowadziła w życie pierwszą międzynarodową Konwencję ramową Rady Europy o sztucznej inteligencji[58], która została zaadaptowana przez Unię Europejską, Stany Zjednoczone, Wielką Brytanię i inne kraje[59].

Filozofia

edytuj

Debaty filozoficzne od zawsze miały na celu ustalenie natury inteligencji i sposobu tworzenia inteligentnych maszyn[60]. Kolejnym ważnym zagadnieniem było to, czy maszyny mogą być świadome, oraz związane z tym implikacje etyczne[61]. Wiele innych zagadnień filozoficznych jest istotnych dla sztucznej inteligencji, takich jak epistemologia i wolna wola[62]. Szybki postęp zintensyfikował publiczne dyskusje na temat filozofii i etyki sztucznej inteligencji[63].

Świadomość, wrażliwość i umysł maszyn

edytuj
Główny artykuł: Sztuczna świadomość.

Odpowiedź na pytanie, czy maszyna może mieć umysł, świadomość i stany mentalne w tym samym sensie co ludzie, jest tematem debaty wśród filozofów umysłu. Ta kwestia rozważa wewnętrzne doświadczenia maszyny, a nie jej zewnętrzne zachowanie. Główny nurt badań nad sztuczną inteligencją uważa tę kwestię za nieistotną, ponieważ nie wpływa ona na cele tej dziedziny: budowania maszyn, które mogą rozwiązywać problemy za pomocą inteligencji. Stuart Russell i Peter Norvig(inne języki) dodają, że dodatkowy projekt uczynienia maszyny świadomą dokładnie w taki sposób, w jaki są świadomi ludzie, nie jest tym, co jesteśmy w stanie podjąć[8].

Komputacjonizm i funkcjonalizm

edytuj
Główne artykuły: KomputacjonizmFunkcjonalizm.

Komputacjonizm to stanowisko w filozofii umysłu, zgodnie z którym umysł ludzki jest systemem przetwarzania informacji, a myślenie jest formą obliczeń. Komputacjonizm twierdzi, że relacja między umysłem a ciałem jest podobna lub identyczna do relacji między oprogramowaniem a sprzętem, a zatem może być rozwiązaniem dylematu psychofizycznego. To stanowisko filozoficzne zostało zainspirowane pracą badaczy AI i naukowców zajmujących się kognitywistyką w latach 1960. i zostało pierwotnie zaproponowane przez filozofów Jerry'ego Fodora i Hilary'ego Putnama[64].

Filozof John Searle scharakteryzował to stanowisko jako tzw. silną AI: Odpowiednio zaprogramowany komputer z właściwymi danymi wejściowymi i wyjściowymi miałby umysł w dokładnie takim samym sensie, w jakim mają umysły ludzie[65]. Searle kwestionuje to twierdzenie swoim argumentem chińskiego pokoju, który próbuje wykazać, że nawet komputer zdolny do idealnego symulowania ludzkiego zachowania nie miałby umysłu[66].

Sztuczna inteligencja na ludzkim poziomie

edytuj

Połowa przepytanych ekspertów w 2014 roku uważała, iż istnieje 50% prawdopodobieństwo na osiągnięcie przez SI ludzkiego poziomu przed 2040 rokiem[67]. W mniejszej ankiecie w 2013 roku 42% badaczy stwierdziło, że SI na ludzkim poziomie powstanie przed 2030 rokiem, a 67% – 2050 rokiem[68].

Wciąż brakuje naukowego konsensusu co do tego, czy maszyny mogą osiągnąć świadomość. Algorytmy sztucznej inteligencji mogą być programowane do symulowania zachowań, które ludzie uznają za inteligentne, ale to nie oznacza, że SI będzie świadoma. Świadomość jest złożonym zjawiskiem, który nawet w kontekście ludzkim nie jest jeszcze w pełni zrozumiały[69].

Grupa chińskich naukowców w pracy z 2015 roku ogłosiła, iż program komputerowy ich autorstwa osiągał lepszy wynik niż przeciętni ludzie (w tym dzieci) podczas testu IQ opartego na komunikatach werbalnych[70].

Również w roku 2015 amerykańscy badacze ogłosili stworzenie programu, który w zawodach z analizy danych pokonał 615 na 906 drużyn złożonych z ludzi[71][72].

Zobacz też

edytuj

Przypisy

edytuj
  1. Computational Intelligence and Knowledge [online].
  2. Katalog der Deutschen Nationalbibliothek [online], portal.dnb.de [dostęp 2020-03-30].
  3. Boden 2020 ↓, s. 30.
  4. Andreas Kaplan; Michael Haenlein (2019) Siri, Siri in my Hand, who’s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1), 15-25.
  5. Annette Flanagin, Kirsten Bibbins-Domingo, Michael Berkwits, Stacy L. Christiansen, Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge, „Journal of the American Medical Association”, 329 (8), 2023, s. 637, DOI10.1001/jama.2023.1344 [dostęp 2024-04-12] (ang.).
  6. „Czarna skrzynka” AI. Czy to jest niebezpieczne? Tak odpowiedział ChatGPT.... Dziennik.pl, 2023-06-03. [dostęp 2024-04-11].
  7. How do neural networks learn? A mathematical formula explains how they detect relevant patterns. phys.org, 2024-03-12. [dostęp 2024-04-11].
  8. a b c d e f g Stuart Russell, Peter Norvig, Artificial Intelligence: A Modern Approach, wyd. 3rd, USA: Prentice Hall Press, listopad 2009, DOI10.5555/1671238, ISBN 978-0-13-604259-4 [dostęp 2025-05-31].
  9. Deep Learning [online], www.deeplearningbook.org [dostęp 2025-05-31] [zarchiwizowane z adresu 2016-04-16].
  10. Li Deng, Dong Yu, Deep Learning: Methods and Applications, „Foundations and Trends® in Signal Processing”, 7 (3–4), 2014, s. 197–387, DOI10.1561/2000000039, ISSN 1932-8346 [dostęp 2025-05-31] (ang.).
  11. Cade Metz, Karen Weise, A.I. Is Getting More Powerful, but Its Hallucinations Are Getting Worse, „The New York Times”, 5 maja 2025, ISSN 0362-4331 [dostęp 2025-05-31] (ang.).
  12. Boden 2020 ↓, s. 19.
  13. Christof Koch, Giulio Tononi. Test na świadomość. „Świat Nauki”. nr. 7 (239), s. 32–35, lipiec 2011. Prószyński Media. ISSN 0867-6380. 
  14. ChatGPT w pracy. Kto i jak korzysta z tego narzędzia i jaki mamy do niego stosunek? [online], interaktywnie.com [dostęp 2023-07-30] (pol.).
  15. Sebastian Buzdugan: The New AI Race: Comparing GPT‑4.5, Claude 3.7 Sonnet, DeepSeek R1, and Grok 3. 2025-03-03. [dostęp 2025-03-13].
  16. Agenci AI już teraz pracują obok ludzi w wielu firmach. Oto jak zwiększają przychody lub generują oszczędności [online], Business Insider Polska, 12 stycznia 2025 [dostęp 2025-03-13].
  17. Introducing the Model Context Protocol [online], www.anthropic.com [dostęp 2025-03-13] (ang.).
  18. Certified Tester AI Testing (CT-AI) - International Software Testing Qualifications Board [online], www.istqb.org, 11 listopada 2024 [dostęp 2025-03-26] (ang.).
  19. National Research Council (U.S.). Committee on Innovations in Computing and Communications: Lessons from History, Funding a revolution : government support for computing research, Washington, D.C. : National Academy Press, 1999, ISBN 978-0-309-06278-7 [dostęp 2025-06-01].
  20. a b CNN.com - AI set to exceed human brain power - Jul 25, 2006 [online], edition.cnn.com [dostęp 2025-06-01].
  21. Are you talking to me?, „The Economist, ISSN 0013-0613 [dostęp 2025-06-01].
  22. Google's man behind the curtain - CNET News [online], news.cnet.com [dostęp 2025-06-01] [zarchiwizowane z adresu 2008-10-06].
  23. Bernard Marr, Beyond The Hype: What You Really Need To Know About AI In 2023 [online], Forbes [dostęp 2025-06-01] (ang.).
  24. What do we know about the economics of AI? [online], MIT News | Massachusetts Institute of Technology, 6 grudnia 2024 [dostęp 2025-06-01] (ang.).
  25. Poland 2024 Digital Decade Country Report | Shaping Europe’s digital future [online], digital-strategy.ec.europa.eu [dostęp 2025-06-01].
  26. US Census Bureau, Only 3.8% of Businesses Use AI to Produce Goods and Services, Highest Use in Information Sector [online], Census.gov [dostęp 2025-06-01] (ang.).
  27. Chiny liderem w wykorzystaniu GenAI w biznesie [online], managerplus.pl, 6 września 2024 [dostęp 2025-06-01].
  28. a b The 2025 AI Index Report | Stanford HAI [online], hai.stanford.edu [dostęp 2025-06-01] (ang.).
  29. Ekonomiści: na AI wydajemy mniej od toczącej wojnę Ukrainy [online], rp.pl [dostęp 2025-06-14] (pol.).
  30. Helion SA, Jak sztuczna inteligencja może pomóc programistom w codziennej pracy? [online], videopoint.pl [dostęp 2025-03-13].
  31. Benj Edwards, Will the future of software development run on vibes? [online], Ars Technica, 5 marca 2025 [dostęp 2025-03-13] (ang.).
  32. Dong Liang: The Reality of Vibe Coding, why AI Still Fails at Complex Projects. 2025-03-04. [dostęp 2025-03-13].
  33. Programista - perspektywy i wyzwania w 2025 r. [online], bluemetrica.com, 9 stycznia 2025 [dostęp 2025-03-13].
  34. What is Generative AI? | IBM [online], web.archive.org, 13 grudnia 2024 [dostęp 2025-04-28] [zarchiwizowane z adresu 2024-12-13].
  35. What is ChatGPT, DALL-E, and generative AI? | McKinsey [online], web.archive.org, 23 kwietnia 2023 [dostęp 2025-04-28] [zarchiwizowane z adresu 2023-04-23].
  36. Erin Griffith, Cade Metz, Anthropic, an A.I. Start-Up, Is Said to Be Close to Adding $300 Million, „The New York Times”, 27 stycznia 2023, ISSN 0362-4331 [dostęp 2025-04-28] (ang.).
  37. Improving mathematical reasoning with process supervision [online], openai.com, 19 października 2023 [dostęp 2025-04-28] (ang.).
  38. Dmitry Babenko, Haralambos Marmanis, Tomasz Walczak, Inteligentna sieć. Algorytmy przyszłości, Gliwice: Wydawnictwo Helion, 2017, ISBN 978-83-283-3250-8, OCLC 995439215 [dostęp 2020-08-29].
  39. Leszek Cwojdziński (ilustr.), Wpływ sztucznej inteligencji na rozwój nowoczesnych systemów bezzałogowych [online], kwartalnikbellona.com [dostęp 2025-04-19].
  40. W Wojsku Polskim powstaje Centrum Implementacji Sztucznej Inteligencji - Ministerstwo Obrony Narodowej - Portal Gov.pl [online], Ministerstwo Obrony Narodowej [dostęp 2025-04-14].
  41. Czy sztuczna inteligencja może zastąpić lekarzy? [online], Medica, 12 czerwca 2023 [dostęp 2023-06-21] (pol.).
  42. Sztuczna inteligencja w medycynie: Przyszłość diagnostyki i leczeniaa [online], aimarketing.pl [dostęp 2024-04-26] (pol.).
  43. Neural Networks in Gaming: AI That Learns from Players | Gamixlabs [online], www.gamixlabs.com, 28 marca 2025 [dostęp 2025-04-14] (ang.).
  44. Piotr Waszczuk, Polski zespół stworzył sieć neuronową, która uczy się grać w gry znane z platformy Atari [online], ITwiz, 20 listopada 2017 [dostęp 2025-04-14].
  45. Pocket Fritz 4 osiągnął poziom 2898 punktów.
  46. Program AlphaGo wygrał pierwszy mecz w Go z najlepszym graczem na świecie [online], Komputer Świat [dostęp 2016-03-28].
  47. The draughts program Buggy [online], buggy-online.com [dostęp 2017-11-26].
  48. Nirali Bhaliya, Jay Gandhi, Dheeraj Kumar Singh, NLP based Extraction of Relevant Resume using Machine Learning [online], maj 2020.
  49. Real-time video analysis for surveillance and monitoring [online], NeuroSYS [dostęp 2021-05-21] [zarchiwizowane z adresu 2021-04-28] (ang.).
  50. Monica Chin, These students figured out their tests were graded by AI – and the easy way to cheat [online], The Verge, 2 września 2020 [dostęp 2020-09-06] (ang.).
  51. Thompson 2019 ↓, s. 317–360.
  52. Thompson 2019 ↓, s. 340–341.
  53. Thompson 2019 ↓, s. 343.
  54. Thompson 2019 ↓, s. 344–345.
  55. Zakodowane uprzedzenie (2020) [online], naEKRANIE.pl [dostęp 2024-11-22].
  56. Regulation of Artificial Intelligence in Selected Jurisdictions [online], 2019.
  57. The race against time for smarter development [online], unesdoc.unesco.org [dostęp 2025-05-31].
  58. Komisja podpisała Konwencję ramową Rady Europy o sztucznej inteligencji i prawach człowieka, demokracji i praworządności | Kształtowanie cyfrowej przyszłości Europy [online], digital-strategy.ec.europa.eu [dostęp 2025-05-31].
  59. Council of Europe opens first ever global treaty on AI for signature - Portal [online], www.coe.int [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-09-17] (ang.).
  60. Anthony Grayling, Philosophy is crucial in the age of AI, „The Conversation” [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-10-05] (ang.).
  61. Oshan Jarow, Will AI ever become conscious? It depends on how you think about biology., „Vox”, 15 czerwca 2024 [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-09-21] (ang.).
  62. John McCarthy, The Philosophy of AI and the AI of Philosophy [online], jmc.stanford.edu [dostęp 2025-05-31] [zarchiwizowane z adresu 2018-10-23].
  63. Oshan Jarow, Will AI ever become conscious? It depends on how you think about biology., „Vox”, 15 czerwca 2024 [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-09-21] (ang.).
  64. Michael Rescorla, The Computational Theory of Mind, Edward N. Zalta, Uri Nodelman (red.), wyd. Winter 2024, Metaphysics Research Lab, Stanford University, 2024 [dostęp 2025-05-31].
  65. John R. Searle, Mind, Language, and Society, Basic Books, 2000, ISBN 978-0-465-04521-1 [dostęp 2025-05-31].
  66. John R. Searle, Minds, brains, and programs, „Behavioral and Brain Sciences”, 3 (3), 1980, s. 417–424, DOI10.1017/S0140525X00005756, ISSN 1469-1825 [dostęp 2025-05-31] (ang.).
  67. https://nickbostrom.com/papers/survey.pdf, str. 10.
  68. James Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, New York: Thomas Dunne Books, 2013, s. 152, ISBN 978-0312622374, OCLC 827256597.
  69. Czy sztuczna inteligencja może uzyskać świadomość? [online], AI o AI, 18 października 2023 [dostęp 2023-11-14] (pol.).
  70. Huazheng Wang i in: Solving Verbal Comprehension Questions in IQ Test by Knowledge-Powered Word Embedding. [dostęp 2015-07-05].
  71. http://groups.csail.mit.edu/EVO-DesignOpt/groupWebSite/uploads/Site/DSAA_DSM_2015.pdf.
  72. Deep Feature Synthesis: Towards Automating Data Science Endeavors [online] [dostęp 2020-08-16].

Bibliografia

edytuj
  • Clive Thompson: Koderzy. Znak Litera Nowa, 2019, s. 317–360. ISBN 83-240-7009-5. (pol.).
  • Margaret Ann Boden: Sztuczna inteligencja. Wydawnictwo Uniwersytetu Łódzkiego, 2020. ISBN 83-8142-639-1. (pol.).

Linki zewnętrzne

edytuj
Polskojęzyczne
  • PSSI – Oficjalna strona Polskiego Stowarzyszenia Sztucznej Inteligencji
  • Sztuczna inteligencja (materiały dydaktyczne MIMUW na studia informatyczne I stopnia)

  Nagrania na YouTube [dostęp 2023-11-30]:

Anglojęzyczne