Tłumaczenie maszynowe języków migowych: Różnice pomiędzy wersjami

[wersja nieprzejrzana][wersja nieprzejrzana]
Usunięta treść Dodana treść
KATMAZ214 (dyskusja | edycje)
Nie podano opisu zmian
Znacznik: Edytor kodu źródłowego 2017
KATMAZ214 (dyskusja | edycje)
lit
Linia 1:
'''Tłumaczenie maszynowe języków migowych''' stało się możliwe od 1977 roku, kiedy to po raz pierwszy została opracowana metoda literowania słów w języku migowym przy pomocy tzw. sztucznej dłoni. Technologie te pozwalają na tłumaczenie [[Język migowy|języków migowych]] na formę pisemną i ustną (lub odwrotnie) i bez użycia [[Tłumaczenie ustne|ludzkiego tłumacza]]. Wynalazcy opracowali produkty na szeroką skalę, aby zmniejszyć zależność od ludzkich tłumaczy. Języki migowe mają inne cechy fonologiczne niż języki mówione, które okazały się przeszkodą dla programistów. Wykorzystują oni widzenie komputerowe i [[uczenie maszynowe]], aby rozpoznawać pewne fonologiczne parametry, charakterystyczne dla języków migowych. Ponadto rozpoznawanie mowy i przetwarzanie języka naturalnego umożliwiają interaktywną komunikację między osobami słyszącymi i niedosłyszącymi. Niektóre z tych technologii są opracowywane przez zespół inżynierów i specjalistów należących do społeczności głuchej.
 
== Historia ==
Linia 9:
SignAloud jest technologią, która wykorzystuje parę rękawiczek, stworzonych przez grupę studentów z Uniwersytetu w Waszyngtonie, do transliteracji <ref>{{cytuj stronę |url=https://english.stackexchange.com/questions/158054/what-is-the-difference-between-translation-and-transliteration |tytuł="What is the difference between translation and transliteration" |opublikowany=''english.stackexchange.com'' |data dostępu= 6 kwiecień 2017}}</ref> Amerykańskiego Języka Migowego (AJM) na język angielski<ref>{{cytuj stronę |url=http://lemelson.mit.edu/winners/thomas-pryor-and-navid-azodi |tytuł="SignAloud"}}</ref>. Wiosną 2016 roku Thomas Prior i Navid Azodi, dwóch słyszących studentów Uniwersytetu w Waszyngtonie, stworzyli pomysł na to urządzenie. Azodi wywodzi się z bogatego środowiska i przejawia silnie zaangażowanie w dziedzinie zarządzania, podczas gdy Prior posiada ogromne doświadczenie w inżynierii.<ref>{{cytuj stronę |url=http://lemelson.mit.edu/winners/thomas-pryor-and-navid-azodi |tytuł="Thomas Pryor and Navid Azodi {{!}} Lemelson-MIT Program" |opublikowany=''lemelson.mit.edu'' |data dostępu=9 marzec 2017}}</ref> W maju 2016 roku twórcy urządzenia przekazali wiadomość do amerykańskiego publicznego radia NPR, że ściśle współpracują z osobami, komunikującymi się przy pomocy Amerykańskiego Języka Migowego, aby mogli lepiej zrozumieć odbiorców i dostosować swój produkt do faktycznych, a nie rzekomych potrzeb tych ludzi<ref name=":0">{{cytuj stronę |url=https://www.npr.org/sections/alltechconsidered/2016/05/17/478244421/these-gloves-offer-a-modern-twist-on-sign-language |tytuł="These Gloves Offer A Modern Twist On Sign Language" |opublikowany=''NPR.org'' |data dostępu=9 marzec 2017}}</ref>. Jednakże żadne nowsze wersje nie zostały wydane od tamtego czasu. Wynalazek ten był jednym z siedmiu, który otrzymał nagrodę dla studentów the Lemelson-MIT Student Prize. Celem tej organizacji jest wyrażenie uznania poparcia dla młodych wynalazców. Ich wynalazek podlegał pod kategorię "Use it!", która obejmuje postępy technologiczne stosowane dla istniejących produktów. Twórcom urządzenia przyznano nagrodę w wysokości 10 000 dolarów<ref>{{cytuj stronę |url=http://lemelson.mit.edu/news/collegiate-inventors-awarded-lemelson-mit-student-prize |tytuł="Collegiate Inventors Awarded Lemelson-MIT Student Prize {{!}} Lemelson-MIT Program" |opublikowany=''lemelson.mit.edu'' |data dostępu=9 marzec 2017}}</ref><ref>{{cytuj stronę |url=http://www.washington.edu/news/2016/04/12/uw-undergraduate-team-wins-10000-lemelson-mit-student-prize-for-gloves-that-translate-sign-language/ |tytuł="UW undergraduate team wins $10,000 Lemelson-MIT Student Prize for gloves that translate sign language {{!}} UW Today" |opublikowany=''www.washington.edu'' |data dostępu= 9 kwiecień 2017}}</ref>.
 
Rękawice mają czujniki, które monitorują ruchy rąk użytkowników, a następnie wysyłają dane do systemu komputera przez [[Bluetooth]]. System analizuje dane i porównuje je z angielskimi słowami, które następnie są wypowiadane przez elektroniczny głos<ref name=":0"/>. Rękawice nie są w stanie odpowiedzieć na pisemną informację zredagowaną pisemnie w języku angielskim ani nie posiadają zdolności słyszenia języka, by następnie przekazać go osobom głuchym za pomocą języka migowego, co oznacza, że nie zapewniają wzajemnej komunikacji. Urządzenie nie wykorzystuje mimiki ani innych języków migowych, które mogą zmienić rzeczywiste tłumaczenie z Amerykańskiego Języka Migowego<ref>{{cytuj stronę |url= http://www.lifeprint.com/asl101/pages-layout/nonmanualmarkers.htm |tytuł="Nonmanual markers in American Sign Language (ASL)" |opublikowany= ''www.lifeprint.com'' |data dostępu=6 kwiecień 2017}}</ref>.
 
=== ProDeaf<ref>{{cytuj stronę |url= http://prodeaf.net/ |tytuł="ProDeaf" |opublikowany=''prodeaf.net'' |data dostępu=9 kwiecień 2017}}</ref> ===
ProDeaf (WebLibras) jest to program komputerowy, który jest w stanie przetłumaczyć tekst i głos na Portugalski Język Migowy (Portuguese Libras) "w celu usprawnienia komunikacji między osobami głuchymi i niedosłyszącymi"<ref>{{cytuj stronę |url=http://www.prodeaf.net/en-us |tytuł="ProDeaf" |opublikowany=''prodeaf.net'' |data dostępu=9 marzec 2017}}</ref>. Obecnie istnieje również beta-wydanie w produkcji dla Amerykańskiego Języka Migowego. Pierwotny zespół rozpoczął pracę nad projektem w 2010 roku we współpracy ze słyszącymi i niedosłyszącymi ekspertami, takimi jak: językoznawcy, projektanci, programiści i tłumacze. Zespół powstał na Uniwersytecie Federalnym w Pernambuco (ang. skrót UFPE) i składał się z grupy studentów uczestniczących w projekcie informatycznym. Jednym z członków była osoba głucha, doświadczająca trudności w komunikowaniu się z resztą grupy. Aby ukończyć projekt i pomóc członkowi w komunikacji z resztą osób, grupa utworzyła program Proativa Soluções i od tamtego czasu prace grupy posunęły się do przodu<ref>{{cytuj stronę |url=http://www.prodeaf.net/en-us/QuemSomos |tytuł="ProDeaf" |opublikowany=''prodeaf.net'' |data dostępu=16 marzec 2017}}</ref>. Obecna wersja bety w Amerykańskim Języku Migowym jest bardzo ograniczona np. posiada sekcję słownikową, ale jedyne słowo znajdujące się pod literą 'J' to 'jump' (ang. skakać). Jeśli urządzenie nie zostało zaprogramowane w dane słowo, to cyfrowy avatar musi literować to słowo w języku migowym. Ostatnia aktualizacja aplikacji miała miejsce w czerwcu 2016 roku, a ProDeaf został opisany w ponad 400 najbardziej popularnych środkach masowego przekazu<ref>{{cytuj stronę |url= https://itunes.apple.com/us/app/prodeaf-tradutor-para-libras/id651120192?mt=8 |tytuł="ProDeaf Tradutor para Libras on the App Store" |opublikowany=''App Store'' |data dostępu=9 marzec 2017}}</ref>.
 
Aplikacja nie potrafi czytać języka migowego i przekształcać go na słowa lub teksty, dlatego służy jedynie jako jednostronna forma komunikacjakomunikacji. Ponadto, użytkownik nie może zalogować się do aplikacji, iby uzyskać angielskie tłumaczenie w dowolnej formie, ponieważ angielski jest nadal w wersji beta.
 
=== Kinect Sign Language Translator<ref>{{cytuj stronę |url=https://pdfs.semanticscholar.org/d5f2/59e7d095c12b990e20fb6bc0e63b3680debe.pdf |nazwisko=Xilin (2013) |imię=Chen |tytuł="Kinect Sign Language Translator expands communication possibilities" (PDF) |opublikowany= ''Microsoft Research Connections''}}</ref> ===
Począwszy od 2012 roku naukowcy z [[Chińska Akademia Nauk|Chińskiej Akademii Nauk]] i specjaliści surdopedagogiki z Uniwersytetu w Pekinie współpracują z azjatyckim zespołem należącym do oddziału [[Microsoft Research]] firmy Microsoft, w celu stworzenia Kinect Sign Language Translator. Tłumacz składa się z dwóch trybów pracy: trybu tłumacza i trybu komunikacji. Tryb tłumacza potrafi przełożyć pojedyncze słowa z języka migowego na słowa pisane i odwrotnie. Drugi tryb, komunikacji, możepotrafi tłumaczyć całe zdania, a rozmowa może być automatycznie przetłumaczona przy użyciu [[Awatar (rzeczywistość wirtualna)|avatara]] 3D. Ponadto tryb tłumacza może również wykrywać postawy i kształty dłoni osoby posługującej się językiem migowym. Tryb ten jest także w stanie wychwycić tor ruchu przy wykorzystaniu technik [[Uczenie maszynowe|uczenia maszynowego]], [[Rozpoznawanie wzorców|rozpoznawania wzorców]] i[[Rozpoznawanie obrazów| obrazów]]. Urządzenie pozwala również na wzajemną komunikację dzięki temu, że technologia [[Rozpoznawanie mowy|rozpoznawania mowy]] umożliwia przetłumaczenie mowy na język migowy, a [[Modelowanie (3D)|trójwymiarowy]] avatar przy pomocy języka migowego przekazuje wiadomość osobom głuchym<ref>{{cytuj stronę |url= http://iip.ict.ac.cn/sites/default/files/publication/2013_FG_xjchai_Sign%20Language%20Recognition%20and%20Translation%20with%20Kinect.pdf |nazwisko=Zhou |imię=Ming |tytuł="Sign Language Recognition and Translation with Kinect" (PDF) |opublikowany=''IEEE Conference''}}</ref>.
 
Pierwotny projekt został uruchomiony w Chinach wykorzystujący tłumaczenie [[Chińskiego Języka Migowego]]. W 2013 roku projekt został przedstawiony na najważniejszym spotkaniu oddziału badań naukowych Microsoft Research Faculty Summit oraz na posiedzeniu firmy Microsoft<ref>{{cytuj stronę |url= https://www.microsoft.com/en-us/research/blog/kinect-sign-language-translator-part-1/ |tytuł="Kinect Sign Language Translator"}}</ref>. Obecnie ten projekt również jest opracowywany przez naukowców ze Stanów Zjednoczonych, którzy chcą wykorzystać do tłumaczenia Amerykański Język Migowy<ref>{{cytuj stronę |url=https://dl.acm.org/citation.cfm?doid=2070481.2070532 |nazwisko=Zafrulla |imię=Zahoor |nazwisko2=Brashear |imię2=Helene |nazwisko3=Starner |imię3=Thad |nazwisko4=Hamilton |imię4=Harley |nazwisko5=Presti (01.01.2011)|imię5=Peter |tytuł="American Sign Language Recognition with the Kinect" |opublikowany= ''Proceedings of the 13th International Conference on Multimodal Interfaces''. ICMI '11. New York, NY, USA: ACM: 279–286. [[doi]]:10.1145/2070481.2070532 |id = ISBN 9781450306416}}</ref>. Jak na razie urządzenie wciąż jest tylko prototypem, a dokładność tłumaczenia w trybie komunikacji nadal nie jest idealna.
 
=== SignAll<ref>{{cytuj stronę |url = http://www.signall.us/ |tytuł="SignAll. We translate sign language. Automatically" |opublikowany=''www.signall.us |data dostępu= 9 kwiecień 2017}}</ref> ===
SignAll jest systemem automatycznego tłumaczenia języka migowego, który jest dostarczony przez [[Dolphio Technologies]]<ref>{{cytuj stronę |url= http://www.dolphio.hu/en/ |tytuł="Dolphio {{!}} Unique IT Technologies" |opublikowany=''www.dolphio.hu''|data dostępu= 6 kwiecień 2017}}</ref> na Węgrzech. Zespół "wprowadza pierwsze zautomatyzowane rozwiązanie dla tłumaczenia języka migowego, opierając się na technologiach rozpoznawania obrazów i przetwarzania języka naturalnego (z ang. NLP), aby zapewnić codzienną komunikację między osobami słyszącymi, które wykorzystują język angielski, a głuchymi lub niedosłyszącymi posługującymi się językiem migowym." System SignAll wykorzystuje[[ Kinect]] opracowany przez Microsoft oraz inne kamerki internetowe ze szczegółowymi czujnikami podłączonymi do komputera. Dzięki technologii [[Rozpoznawanie obrazów|rozpoznawania obrazów]] możliwe jest zidentyfikowanie kształtu rąk i ruchu osób posługujących się językiem migowym, a system [[Przetwarzanie języka naturalnego|przetwarzania języka naturalnego]] przekształca zebrane, przy pomocy technologii rozpoznawania obrazów, dane na proste wyrażenie w języku angielskim. Programistą urządzenia jest osoba głucha, a pozostała część zespołu pracująca nad tym projektem składa się z wielu inżynierów i specjalistów językowych należących zarówno do społeczności głuchej jak i słyszącej. Technologia ma możliwość włączenia wszystkich pięciu parametrów AJM, za pomocą których urządzenie jest w stanie dokładnie interpretować ruchy osoby używającej języka migowego. SignAll został zatwierdzony przez wiele firm, w tym [[Deloitte]] i LT-innovative i utworzył partnerstwa z [[Microsoft Bizspark]] oraz Hungary's Renewal<ref name=":1">{{cytuj stronę |url= http://www.signall.us/ |tytuł="SignAll. We translate sign language. Automatically" |opublikowany='' www.signall.us'' |data dostępu= 9 marzec 2017}}</ref>.
 
=== MotionSavvy<ref>{{cytuj stronę |url=https://www.indiegogo.com/projects/motionsavvy-uni-1st-sign-language-to-voice-system#/ |tytuł="MotionSavvy UNI: 1st sign language to voice system" |opublikowany= ''Indiegogo |data dostępu= 9 marzec 2017}}</ref> ===
MotionSavvy był pierwszym językiem migowym w systemie głosowym. Urządzenie zostało stworzone w 2012 roku przez grupę z National Technical Institute for the Deaf i "wyłonił się z akceleratora ruchu AXLR8R firmy the Leap Motion"<ref>{{cytuj stronę |url=http://www.rit.edu/ |tytuł="Rochester Institute of Technology (RIT)" |opublikowany=''Rochester Institute of Technology (RIT)'' |data dostępu=6 kwiecień 2017}}</ref>. Zespół użył tableta, który wykorzystuje moc kontrolera firmy the Leap Motion. Cały zespół, składający się z sześciu osób, został utworzony z niesłyszących uczniów uczęszczających do szkół dla głucho-niemych<ref>{{cytuj stronę |url=https://techcrunch.com/2014/06/06/motionsavvy-is-a-tablet-app-that-understands-sign-language/ |nazwisko=Tsotsis |imię=Alexia |tytuł="MotionSavvy Is A Tablet App That Understands Sign Language" |opublikowany=''TechCrunch'' |data dostępu=9 kwiecień 2017}}</ref>. Jest to obecnie jedno z dwóch urządzeń umożliwiających wzajemną komunikację wyłącznie dla Amerykańskiego Języka Migowego. Pozwala to głuchym osobom przekazać urządzeniu znak języka migowego, który jest następnie interpretowany. lubUrządzenie odwrotnie,działa też w drugą stronę tzn. wykorzystującwychwytuje mowę angielską i przetłumaczyćtłumaczy ją na Amerykański Język Migowy. Urządzenie jest wysyłane za 198 dolarów. Niektóre inne funkcje obejmują zdolność do współdziałania, do podawania obecnej godziny, różnorodnych sposobówdo wyrażania w różnorodny sposób słowa przy użyciu znaku ioraz umożliwia komunikacjikomunikację z innymi użytkownikami w ramach programu CrowdSign.
 
Urządzenie zostało przetestowane przez każdą osobę z czasopism o tematyce technologicznej, również przez [[Time (tygodnik)|Time.]] Jedno z amerykańskich czasopism [[Wired]] odnotowało: "To nie było trudne do zrozumienia, jak bardzo [UNI] może stać się transformującą technologią" i że "[UNI] zaskoczyła, jak jakaś magia."Katy Steinmetz z TIME powiedziała: "Ta technologia może zmienić sposób życia osób niesłyszących". Sean Buckley z [[Engadget]] wspomniał, że "UNI może stać się niesamowitym ''narzędziem komunikacji''."