Tłumaczenie maszynowe języków migowych: Różnice pomiędzy wersjami
[wersja nieprzejrzana] | [wersja nieprzejrzana] |
Usunięta treść Dodana treść
Nie podano opisu zmian Znacznik: Edytor kodu źródłowego 2017 |
lit |
||
Linia 1:
'''Tłumaczenie maszynowe języków migowych''' stało się możliwe od 1977 roku, kiedy to po raz pierwszy została opracowana metoda literowania słów w języku migowym przy pomocy tzw. sztucznej dłoni. Technologie te pozwalają na tłumaczenie [[Język migowy|języków migowych]] na formę pisemną i ustną (lub odwrotnie)
== Historia ==
Linia 9:
SignAloud jest technologią, która wykorzystuje parę rękawiczek, stworzonych przez grupę studentów z Uniwersytetu w Waszyngtonie, do transliteracji <ref>{{cytuj stronę |url=https://english.stackexchange.com/questions/158054/what-is-the-difference-between-translation-and-transliteration |tytuł="What is the difference between translation and transliteration" |opublikowany=''english.stackexchange.com'' |data dostępu= 6 kwiecień 2017}}</ref> Amerykańskiego Języka Migowego (AJM) na język angielski<ref>{{cytuj stronę |url=http://lemelson.mit.edu/winners/thomas-pryor-and-navid-azodi |tytuł="SignAloud"}}</ref>. Wiosną 2016 roku Thomas Prior i Navid Azodi, dwóch słyszących studentów Uniwersytetu w Waszyngtonie, stworzyli pomysł na to urządzenie. Azodi wywodzi się z bogatego środowiska i przejawia silnie zaangażowanie w dziedzinie zarządzania, podczas gdy Prior posiada ogromne doświadczenie w inżynierii.<ref>{{cytuj stronę |url=http://lemelson.mit.edu/winners/thomas-pryor-and-navid-azodi |tytuł="Thomas Pryor and Navid Azodi {{!}} Lemelson-MIT Program" |opublikowany=''lemelson.mit.edu'' |data dostępu=9 marzec 2017}}</ref> W maju 2016 roku twórcy urządzenia przekazali wiadomość do amerykańskiego publicznego radia NPR, że ściśle współpracują z osobami, komunikującymi się przy pomocy Amerykańskiego Języka Migowego, aby mogli lepiej zrozumieć odbiorców i dostosować swój produkt do faktycznych, a nie rzekomych potrzeb tych ludzi<ref name=":0">{{cytuj stronę |url=https://www.npr.org/sections/alltechconsidered/2016/05/17/478244421/these-gloves-offer-a-modern-twist-on-sign-language |tytuł="These Gloves Offer A Modern Twist On Sign Language" |opublikowany=''NPR.org'' |data dostępu=9 marzec 2017}}</ref>. Jednakże żadne nowsze wersje nie zostały wydane od tamtego czasu. Wynalazek ten był jednym z siedmiu, który otrzymał nagrodę dla studentów the Lemelson-MIT Student Prize. Celem tej organizacji jest wyrażenie uznania poparcia dla młodych wynalazców. Ich wynalazek podlegał pod kategorię "Use it!", która obejmuje postępy technologiczne stosowane dla istniejących produktów. Twórcom urządzenia przyznano nagrodę w wysokości 10 000 dolarów<ref>{{cytuj stronę |url=http://lemelson.mit.edu/news/collegiate-inventors-awarded-lemelson-mit-student-prize |tytuł="Collegiate Inventors Awarded Lemelson-MIT Student Prize {{!}} Lemelson-MIT Program" |opublikowany=''lemelson.mit.edu'' |data dostępu=9 marzec 2017}}</ref><ref>{{cytuj stronę |url=http://www.washington.edu/news/2016/04/12/uw-undergraduate-team-wins-10000-lemelson-mit-student-prize-for-gloves-that-translate-sign-language/ |tytuł="UW undergraduate team wins $10,000 Lemelson-MIT Student Prize for gloves that translate sign language {{!}} UW Today" |opublikowany=''www.washington.edu'' |data dostępu= 9 kwiecień 2017}}</ref>.
Rękawice mają czujniki, które monitorują ruchy rąk użytkowników, a następnie wysyłają dane do systemu komputera przez [[Bluetooth]]. System analizuje dane i porównuje je z angielskimi słowami, które następnie są wypowiadane przez elektroniczny głos<ref name=":0"/>. Rękawice nie są w stanie odpowiedzieć na pisemną informację zredagowaną
=== ProDeaf<ref>{{cytuj stronę |url= http://prodeaf.net/ |tytuł="ProDeaf" |opublikowany=''prodeaf.net'' |data dostępu=9 kwiecień 2017}}</ref> ===
ProDeaf (WebLibras) jest to program komputerowy, który jest w stanie przetłumaczyć tekst i głos na Portugalski Język Migowy (Portuguese Libras) "w celu usprawnienia komunikacji między osobami głuchymi i niedosłyszącymi"<ref>{{cytuj stronę |url=http://www.prodeaf.net/en-us |tytuł="ProDeaf" |opublikowany=''prodeaf.net'' |data dostępu=9 marzec 2017}}</ref>. Obecnie istnieje również beta-wydanie w produkcji dla Amerykańskiego Języka Migowego. Pierwotny zespół rozpoczął pracę nad projektem w 2010 roku we współpracy ze słyszącymi i niedosłyszącymi ekspertami, takimi jak: językoznawcy, projektanci, programiści i tłumacze. Zespół powstał na Uniwersytecie Federalnym w Pernambuco (ang. skrót UFPE) i składał się z grupy studentów uczestniczących w projekcie informatycznym. Jednym z członków była osoba głucha, doświadczająca trudności w komunikowaniu się z resztą grupy. Aby ukończyć projekt i pomóc członkowi w komunikacji
Aplikacja nie potrafi czytać języka migowego i przekształcać go na słowa lub teksty, dlatego służy jedynie jako jednostronna forma
=== Kinect Sign Language Translator<ref>{{cytuj stronę |url=https://pdfs.semanticscholar.org/d5f2/59e7d095c12b990e20fb6bc0e63b3680debe.pdf |nazwisko=Xilin (2013) |imię=Chen |tytuł="Kinect Sign Language Translator expands communication possibilities" (PDF) |opublikowany= ''Microsoft Research Connections''}}</ref> ===
Począwszy od 2012 roku naukowcy z [[Chińska Akademia Nauk|Chińskiej Akademii Nauk]] i specjaliści surdopedagogiki z Uniwersytetu w Pekinie współpracują z azjatyckim zespołem należącym do oddziału [[Microsoft Research]] firmy Microsoft, w celu stworzenia Kinect Sign Language Translator. Tłumacz składa się z dwóch trybów pracy: trybu tłumacza i trybu komunikacji. Tryb tłumacza potrafi przełożyć pojedyncze słowa z języka migowego na słowa pisane i odwrotnie. Drugi tryb, komunikacji,
Pierwotny projekt został uruchomiony w Chinach wykorzystujący tłumaczenie [[Chińskiego Języka Migowego]]. W 2013 roku projekt został przedstawiony na najważniejszym spotkaniu oddziału badań naukowych Microsoft Research Faculty Summit oraz na posiedzeniu firmy Microsoft<ref>{{cytuj stronę |url= https://www.microsoft.com/en-us/research/blog/kinect-sign-language-translator-part-1/ |tytuł="Kinect Sign Language Translator"}}</ref>. Obecnie ten projekt również jest opracowywany przez naukowców ze Stanów Zjednoczonych, którzy chcą wykorzystać do tłumaczenia Amerykański Język Migowy<ref>{{cytuj stronę |url=https://dl.acm.org/citation.cfm?doid=2070481.2070532 |nazwisko=Zafrulla |imię=Zahoor |nazwisko2=Brashear |imię2=Helene |nazwisko3=Starner |imię3=Thad |nazwisko4=Hamilton |imię4=Harley |nazwisko5=Presti (01.01.2011)|imię5=Peter |tytuł="American Sign Language Recognition with the Kinect" |opublikowany= ''Proceedings of the 13th International Conference on Multimodal Interfaces''. ICMI '11. New York, NY, USA: ACM: 279–286. [[doi]]:10.1145/2070481.2070532 |id = ISBN 9781450306416}}</ref>. Jak na razie urządzenie wciąż jest tylko prototypem, a dokładność tłumaczenia w trybie komunikacji nadal nie jest idealna.
=== SignAll<ref>{{cytuj stronę |url = http://www.signall.us/ |tytuł="SignAll. We translate sign language. Automatically" |opublikowany=''www.signall.us |data dostępu= 9 kwiecień 2017}}</ref> ===
SignAll jest systemem automatycznego tłumaczenia języka migowego, który jest dostarczony przez [[Dolphio Technologies]]<ref>{{cytuj stronę |url= http://www.dolphio.hu/en/ |tytuł="Dolphio {{!}} Unique IT Technologies" |opublikowany=''www.dolphio.hu''|data dostępu= 6 kwiecień 2017}}</ref> na Węgrzech. Zespół "wprowadza pierwsze zautomatyzowane rozwiązanie dla tłumaczenia języka migowego, opierając się na technologiach rozpoznawania obrazów i przetwarzania języka naturalnego (z ang. NLP), aby zapewnić codzienną komunikację między osobami słyszącymi, które wykorzystują język angielski, a głuchymi lub niedosłyszącymi posługującymi się językiem migowym." System SignAll wykorzystuje[[ Kinect]] opracowany przez Microsoft oraz inne kamerki internetowe ze szczegółowymi czujnikami podłączonymi do komputera. Dzięki technologii [[Rozpoznawanie obrazów|rozpoznawania obrazów]] możliwe jest zidentyfikowanie kształtu rąk i ruchu osób posługujących się językiem migowym, a system [[Przetwarzanie języka naturalnego|przetwarzania języka naturalnego]] przekształca zebrane, przy pomocy technologii rozpoznawania obrazów, dane na proste wyrażenie w języku angielskim. Programistą urządzenia jest osoba głucha, a pozostała część zespołu pracująca nad tym projektem składa się z wielu inżynierów i specjalistów językowych należących zarówno do społeczności głuchej jak i słyszącej. Technologia ma możliwość włączenia wszystkich pięciu parametrów AJM, za pomocą których urządzenie jest w stanie dokładnie interpretować ruchy osoby używającej języka migowego. SignAll został zatwierdzony przez wiele firm, w tym [[Deloitte]] i LT-innovative i utworzył partnerstwa z [[Microsoft Bizspark]] oraz Hungary's Renewal<ref name=":1">{{cytuj stronę |url= http://www.signall.us/ |tytuł="SignAll. We translate sign language. Automatically" |opublikowany='' www.signall.us'' |data dostępu= 9 marzec 2017}}</ref>.
=== MotionSavvy<ref>{{cytuj stronę |url=https://www.indiegogo.com/projects/motionsavvy-uni-1st-sign-language-to-voice-system#/ |tytuł="MotionSavvy UNI: 1st sign language to voice system" |opublikowany= ''Indiegogo |data dostępu= 9 marzec 2017}}</ref> ===
MotionSavvy był pierwszym językiem migowym w systemie głosowym. Urządzenie zostało stworzone w 2012 roku przez grupę z National Technical Institute for the Deaf i "wyłonił się z akceleratora ruchu AXLR8R firmy the Leap Motion"<ref>{{cytuj stronę |url=http://www.rit.edu/ |tytuł="Rochester Institute of Technology (RIT)" |opublikowany=''Rochester Institute of Technology (RIT)'' |data dostępu=6 kwiecień 2017}}</ref>. Zespół użył tableta, który wykorzystuje moc kontrolera firmy the Leap Motion. Cały zespół, składający się z sześciu osób, został utworzony z niesłyszących uczniów uczęszczających do szkół dla głucho-niemych<ref>{{cytuj stronę |url=https://techcrunch.com/2014/06/06/motionsavvy-is-a-tablet-app-that-understands-sign-language/ |nazwisko=Tsotsis |imię=Alexia |tytuł="MotionSavvy Is A Tablet App That Understands Sign Language" |opublikowany=''TechCrunch'' |data dostępu=9 kwiecień 2017}}</ref>. Jest to obecnie jedno z dwóch urządzeń umożliwiających wzajemną komunikację wyłącznie dla Amerykańskiego Języka Migowego. Pozwala to głuchym osobom przekazać urządzeniu znak języka migowego, który jest następnie interpretowany.
Urządzenie zostało przetestowane przez każdą osobę z czasopism o tematyce technologicznej, również przez [[Time (tygodnik)|Time.]] Jedno z amerykańskich czasopism [[Wired]] odnotowało: "To nie było trudne do zrozumienia, jak bardzo [UNI] może stać się transformującą technologią" i że "[UNI] zaskoczyła, jak jakaś magia."Katy Steinmetz z TIME powiedziała: "Ta technologia może zmienić sposób życia osób niesłyszących". Sean Buckley z [[Engadget]] wspomniał, że "UNI może stać się niesamowitym ''narzędziem komunikacji''."
|