Postęp w sztucznej inteligencji

Główny artykuł: Sztuczna inteligencja.
Procent błędów przy klasyfikacji obrazów dokonywanej przez SI (niebieskie słupki) i przez człowieka (czerwona linia)[1]

Sztuczna inteligencja jest obecnie wykorzystywana w wielu dziedzinach, takich jak diagnostyka medyczna, gra na giełdzie, sterowanie robotami czy automatyczne dowodzenie twierdzeń. Wiele tych zastosowań nie jest jednak traktowanych jako SI, ponieważ termin zwykle kojarzy się z tymi funkcjami ludzkiego umysłu, których jeszcze nie potrafimy odtworzyć w komputerze[2].

W odpowiednio zdefiniowanych warunkach można porównywać wyniki uzyskane przez programy komputerowe z wynikami uzyskiwanymi przez ludzi. Testy takie nazywane są eksperckimi testami Turinga. W ten sposób można wskazywać kolejne problemy, dla których programy znajdują rozwiązania lepiej niż ludzie.

Spis treści

Osiągnięcia SI w rozwiązywaniu problemówEdytuj

Osiągnięcia SI w rozwiązywaniu różnych problemów można podzielić na następujące kategorie:

  • rozwiązane: nie jest możliwe uzyskanie lepszego wyniku
  • nadludzkie: lepsze niż uzyskane przez jakiegokolwiek człowieka
  • mistrzowskie: odpowiadające poziomowi specjalistów w danej dziedzinie
  • ludzkie: odpowiadające poziomowi przeciętnego człowieka
  • słabe: gorsze od większości ludzi

RozwiązaneEdytuj

  • Kółko i krzyżykdrzewo gry ma 26830 węzłów, więc nawet prosty program brute froce może je łatwo przejrzeć.
  • Czwórki – drzewo gry ma 4,5 biliona pozycji. Strategia optymalna została znaleziona w 1988 roku[3].
  • Warcaby angielskie – drzewo gry ma 5×1020 pozycji. Strategia optymalna została znaleziona w 2007 roku[4].
  • Kostka Rubika – istnieje 4×1019 pozycji. W 1995 roku pokazano, że niektóre z nich wymagają 20 ruchów. W 2010 roku sprawdzono, że każdą pozycję da się rozwiązać w nie więcej niż 20 ruchów[5].

NadludzkieEdytuj

MistrzowskieEdytuj

LudzkieEdytuj

  • Rozpoznawanie liter
  • Rozpoznawanie mowy – w 2015 roku Baidu ogłosiła, że ich system rozpoznawania mowy Deep Speech 2 rozpoznaje mandaryńskie i angielskie frazy wyrwane z kontekstu lepiej, niż przeciętny człowiek znający oba języki[26]
  • Rozpoznawanie obrazów – w 2015 roku program opracowany przez Microsoft robił 4,94% błędów przy rozpoznawaniu obrazów z otwartej bazy danych ImageNet, podczas gdy ludzie robią średnio 5,1% błędów[1]
  • Czytanie ze zrozumieniem - w 2018 roku program Alibaby SLQA+ i program Microsoftu r-net zdobyły 82,4 i 82,7 punktów w teście z składającym się ze 100 tysięcy pytań. Przeciętny wynik człowieka to 82,3[27].

SłabeEdytuj

  • Analiza sensowności obrazu polegająca na identyfikowaniu jako dziwne zdjęć przedstawiających doniczkę w miejscu klawiatury lub łączeniu nieprzystających fragmentów zdjęć (łączenie przystających fragmentów jest możliwe dla systemów komputerowych dzięki analizie kolorów i linii)[28]
  • Tłumaczenie automatyczne[29]
  • Większość prac wykonywanych przez ludzi (patrz paradoks Moraveca).

PrzypisyEdytuj

  1. a b Jordan Novet: Microsoft researchers say their newest deep learning system beats humans — and Google (ang.). VentureBeat, 9 luty 2015.
  2. AI set to exceed human brain power (ang.). CNN, 26 lipca 2006.
  3. John Tromp: John's Connect Four Playground (ang.).
  4. Computers Solve Checkers — It's a Draw (ang.). Scientific American, 19 lipca 2007.
  5. God's Number is 20 (ang.).
  6. Beyond video games: New artificial intelligence beats tactical experts in combat simulation (ang.). 27 czerwca 2016.
  7. IBM's Watson is better at diagnosing cancer than human doctors (ang.). 11 lutego 2013.
  8. https://arxiv.org/pdf/1711.05225.pdf
  9. Esteva, Andre, et al. "Dermatologist-level classification of skin cancer with deep neural networks." Nature 542.7639 (2017): 115.
  10. Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists
  11. W 2017 roku Case Cruncher Alpha poprawnie osądził 86,6% spraw, podczas gdy średnia dla prawników wynosiła 66,3%: The robot lawyers are here - and they’re winning - BBC News. [dostęp 2017-11-05].
  12. Stanford, USC, Duke study shows AI reads contracts better than lawyers. [dostęp 2018-02-26].
  13. Computer Wins on ‘Jeopardy!’: Trivial, It’s Not (ang.). 17 lutego 2011.
  14. CCRL 40/40 (ang.).
  15. [https://arxiv.org/pdf/1712.01815.pdf Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm]. . [dostęp 2017-12-05]. 
  16. World-championship-caliber Scrabble
  17. Computer software sets new record for solving jigsaw puzzle
  18. LOGISTELLO's Homepage
  19. Tom Simonite: Data Shows Google’s Robot Cars Are Smoother, Safer Drivers Than You or I (ang.). Technology Review, 25 października 2013. [dostęp 25 czerwca 2014].
  20. Gerald Tesauro. Temporal difference learning and TD-Gammon. „Communications of the ACM”. 38 (3), s. 58–68, March 1995. DOI: 10.1145/203330.203343. 
  21. RoboBridge – Home
  22. Proverb: The probabilistic cruciverbalist. By Greg A. Keim, Noam Shazeer, Michael L. Littman, Sushant Agarwal, Catherine M. Cheves, Joseph Fitzgerald, Jason Grosland, Fan Jiang, Shannon Pollard, and Karl Weinmeister. 1999. In Proceedings of the Sixteenth National Conference on Artificial Intelligence, 710-717. Menlo Park, Calif.: AAAI Press.
  23. Polaris drawing professionals to a stand-still. University of Alberta: Express News, 20 lipca, 2007.
  24. Ryan Smith: U of A researchers win computer poker title. University of Alberta: Express News, 9 sierpnia, 2006.
  25. Google AI wins fifth and final game against go genius Lee Sedol (ang.).
  26. Baidu’s Deep-Learning System Rivals People at Speech Recognition (ang.). 16 grudnia 2015.
  27. The Stanford Question Answering Dataset, rajpurkar.github.io [dostęp 2018-01-17].
  28. Christof Koch, Giulio Tononi. Test na świadomość. „Świat Nauki”. nr. 7 (239), s. 32-35, lipiec 2011. Prószyński Media. ISSN 0867-6380. 
  29. W porównaniu z przeciętną osobą znającą dwa języki, między którymi chcemy dokonać tłumaczenia