SlideShare a Scribd company logo
1 of 35
MAŠĪNTULKOJUMU
KOMBINĒŠANA
Matīss Rikters
Darba vadītāja: Dr. Dat., prof. Inguna Skadiņa
Tildes pētniecības seminārs
Rīgā, 2016. gada 4. martā
PIRMĀ PREZENTĀCIJA
▪ http://tbs/dev/ai/ResearchSeminar/MSMT.ppt
▪ http://www.slideshare.net/matissrikters/msmt-47423148
PIRMĀ PREZENTĀCIJA
▪ Pastāstīts par
▪ MT virzieniem
▪ Hibrīdās MT veidiem
▪ Literatūras izpēti par daudzsistēmu hibrīdo MT
▪ Plānotiem eksperimentiem, citiem padarītajiem un plānotajiem darbiem
SATURS
▪ Hibrīdā mašīntulkošana
▪ Daudzsistēmu hibrīdā MT
▪ Vienkārša mašīntulkojumu kombinēšana
▪ Veselu tulkojumu kombinēšana
▪ Tulkojumu daļu kombinēšana
▪ Lingvistiski motivēta mašīntulkojumu kombinēšana
▪ Citi darbi
▪ Tālāki plāni
HIBRĪDĀ MAŠĪNTULKOŠANA
▪ Statistiskā likumu ģenerēšana
▪ RBMT sistēmas likumi ģenerēti no treniņu korpusiem
▪ Vairākkārtēja apstrāde (multi-pass)
▪ Secīga datu apstrāde sākumā ar RBMT, tad SMT
▪ Daudzsistēmu hibrīdā MT
▪ Paralēli darbinātas vairākas MT sistēmas
DAUDZSISTĒMU HIBRĪDĀ MT
Līdzīgi pētījumi:
▪ SMT + RBMT (Ahsan and Kolachina, 2010)
▪ Confusion networks (Barrault, 2010)
▪ + neironu tīklu modelis (Freitag et al., 2015)
▪ SMT + EBMT + TM + NE (Santanu et al., 2014)
▪ Rekursīva teikumu dekompozīcija (Mellebeek et al., 2006)
MAŠĪNTULKOJUMU KOMBINĒŠANA
▪ Veselu tulkojumu kombinēšana
▪ Iztulko pilnu teikumu ar vairākām MT sistēmām
▪ Izvēlas labāko
MAŠĪNTULKOJUMU KOMBINĒŠANA
▪ Veselu tulkojumu kombinēšana
▪ Iztulko pilnu teikumu ar vairākām MT sistēmām
▪ Izvēlas labāko
▪ Tulkojumu fragmentu kombinēšana
▪ Sadala teikumu fragmentos
▪ Kā fragmenti tiek ņemti teikuma sintakses koka augstākie apakškoki
▪ Iztulko katru fragmentu ar vairākām MT sistēmām
▪ Izvēlas labākos fragmentus un tos apvieno
VESELU TULKOJUMU KOMBINĒŠANA
Teikumu dalīšana tekstvienībās
Tulkošana ar tiešsaistes MT API
Google Translate Bing Translator LetsMT
Labākā tulkojuma izvēle
Tulkojuma izvade
VESELU TULKOJUMU KOMBINĒŠANA
Labākā tulkojuma izvēle:
KenLM (Heafield, 2011) calculates probabilities based on the observed entry with
longest matching history 𝑤𝑓
𝑛
:
𝑝 𝑤 𝑛 𝑤1
𝑛−1
= 𝑝 𝑤 𝑛 𝑤𝑓
𝑛−1
𝑖=1
𝑓−1
𝑏(𝑤𝑖
𝑛−1
)
where the probability 𝑝 𝑤 𝑛 𝑤𝑓
𝑛−1
and backoff penalties 𝑏(𝑤𝑖
𝑛−1
) are given by an
already-estimated language model. Perplexity is then calculated using this
probability: where given an unknown probability distribution p and
a proposed probability model q, it is evaluated by determining how well it predicts a
separate test sample x1, x2... xN drawn from p.
VESELU TULKOJUMU KOMBINĒŠANA
Labākā tulkojuma izvēle:
▪ Trenēts 5-grammu valodas modelis ar
▪ KenLM
▪ JRC-Acquis korpusu v. 2.2 (Steinberger, 2006) - 1.4 miljoniem latviešu valodas
juridiskā domēna teikumu
▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
VESELU TULKOJUMU KOMBINĒŠANA
Labākā tulkojuma izvēle:
▪ Trenēts 5-grammu valodas modelis ar
▪ KenLM
▪ JRC-Acquis korpusu v. 2.2 (Steinberger, 2006) - 1.4 miljoniem latviešu valodas
juridiskā domēna teikumu
▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
▪ Testa dati
▪ 1581 patvaļīgi izvēlēti teikumi no JRC-Acquis korpusa
▪ Mēģināts arī ACCURAT balansētais izvērtēšanas korpuss - 512 vispārīgu teikumu
(Skadiņš et al., 2010), bet rezultāti bija mazāk labi
VESELU TULKOJUMU KOMBINĒŠANA
Sistēma BLEU
Izvēlēto tulkojumu īpatsvars
Google Bing LetsMT Vienādi
Google Translate 16.92 100 % - - -
Bing Translator 17.16 - 100 % - -
LetsMT 28.27 - - 100 % -
Hibrīds Google + Bing 17.28 50.09 % 45.03 % - 4.88 %
Hibrīds Google + LetsMT 22.89 46.17 % - 48.39 % 5.44 %
Hibrīds LetsMT + Bing 22.83 - 45.35 % 49.84 % 4.81 %
Hibrīds Google + Bing + LetsMT 21.08 28.93 % 34.31 % 33.98 % 2.78 %
Maijs 2015
TULKOJUMU FRAGMENTU KOMBINĒŠANA
Teikumu dalīšana tekstvienībās
Tulkošana ar tiešsaistes MT API
Google
Translate
Bing
Translator
LetsMT
Labāko fragmentu izvēle
Tulkojumu izvade
Teikumu sadalīšana fragmentos
Sintaktiskā analīze
Teikumu apvienošana
TULKOJUMU FRAGMENTU KOMBINĒŠANA
▪ Sintaktiskā analīze:
▪ Berkeley Parser (Petrov et al., 2006)
▪ Teikuma sadalīšana fragmentos no sintakses koka augšējā līmeņa apakškokiem
TULKOJUMU FRAGMENTU KOMBINĒŠANA
▪ Sintaktiskā analīze:
▪ Berkeley Parser (Petrov et al., 2006)
▪ Teikuma sadalīšana fragmentos no sintakses koka augšējā līmeņa apakškokiem
▪ Labākā fragmenta izvēle:
▪ 5-grammu valodas modelis ar KenLM un JRC-Acquis korpusu - 1.4 miljoniem
latviešu valodas juridiskā domēna teikumu
▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
TULKOJUMU FRAGMENTU KOMBINĒŠANA
▪ Sintaktiskā analīze:
▪ Berkeley Parser (Petrov et al., 2006)
▪ Teikuma sadalīšana fragmentos no sintakses koka augšējā līmeņa apakškokiem
▪ Labākā fragmenta izvēle:
▪ 5-grammu valodas modelis ar KenLM un JRC-Acquis korpusu - 1.4 miljoniem
latviešu valodas juridiskā domēna teikumu
▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
▪ Testa dati
▪ 1581 patvaļīgi izvēlēti teikumi no JRC-Acquis korpusa
▪ Mēģināts arī ACCURAT balansētais izvērtēšanas korpuss - 512 vispārīgu teikumu,
bet rezultāti bija mazāk labi
Sistēma
BLEU Izvēlēto tulkojumu īpatsvars
MSMT SyMHyT Google Bing LetsMT
Google Translate 18.09 100% - -
Bing Translator 18.87 - 100% -
LetsMT 30.28 - - 100%
Hibrīds Google + Bing 18.73 21.27 74% 26% -
Hibrīds Google + LetsMT 24.50 26.24 25% - 75%
Hibrīds LetsMT + Bing 24.66 26.63 - 24% 76%
Hibrīds Google + Bing + LetsMT 22.69 24.72 17% 18% 65%
TULKOJUMU FRAGMENTU KOMBINĒŠANASeptembris 2015
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
▪ Gudrāka teikumu dalīšana fragmentos
▪ Teikuma koku apstaigā no lejas uz augšu, no labās uz kreiso pusi
▪ Pievieno vārdu aktuālajam fragmentam, ja
▪ Fragmentā nav pārāk daudz vārdu (teikuma vārdu skaits / 4)
▪ Vārds ir tikai vienu simbolu garš vai nesatur alfabēta simbolus
▪ Aktuālais fragments sākas ar ģenitīva frāzi («of »)
▪ Citādāk veido jaunu fragmentu
▪ Ja sanāk ļoti daudz fragmentu, process tiek atkārtots, pieļaujot fragmentā vairāk
kā (teikuma vārdu skaits / 4) vārdu
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
▪ Gudrāka teikumu dalīšana fragmentos
▪ Teikuma koku apstaigā no lejas uz augšu, no labās uz kreiso pusi
▪ Pievieno vārdu aktuālajam fragmentam, ja
▪ Fragmentā nav pārāk daudz vārdu (teikuma vārdu skaits / 4)
▪ Vārds ir tikai vienu simbolu garš vai nesatur alfabēta simbolus
▪ Aktuālais fragments sākas ar ģenitīva frāzi («of »)
▪ Citādāk veido jaunu fragmentu
▪ Ja sanāk ļoti daudz fragmentu, process tiek atkārtots, pieļaujot fragmentā vairāk
kā (teikuma vārdu skaits / 4) vārdu
▪ Izmaiņas MT API sistēmās
▪ LetsMT Tildes biroja sistēmas API vietā pagaidām Hugo.lv API
▪ Pievienots Yandex API
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
Teikuma
sintakses koks
Koka datu
struktūra
Fragmentu
saraksts
Koka datu struktūra ar
marķētiem fragmentiem
Apstaigā koku/apakškoku
Aktuālā
koka/apakškoka
fragments
fvs < tvs / 4
fvs > 1
Pievieno
fragmentu
sarakstam
Apvieno ar pēdējo
fragmentu sarakstā
fvs = 1
Ģenitīva frāze
Nealfabētisks
fvs – fragmenta vārdu skaits
tvs – teikuma vārdu skaits
Labākā tulkojuma izvēle:
▪ Trenēti 6-grammu un 12-grammu valodas modeļi ar
▪ KenLM
▪ JRC-Acquis korpusu v. 2.2 - 1.4 miljoniem latviešu valodas juridiskās nozares teikumu
▪ DGT-Translation Memory korpusu (Steinberger, 2011) – 3.1 miljoniem latviešu
valodas juridiskās nozares teikumu
▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
Labākā tulkojuma izvēle:
▪ Trenēti 6-grammu un 12-grammu valodas modeļi ar
▪ KenLM
▪ JRC-Acquis korpusu v. 2.2 - 1.4 miljoniem latviešu valodas juridiskās nozares teikumu
▪ DGT-Translation Memory korpusu (Steinberger, 2011) – 3.1 miljoniem latviešu
valodas juridiskās nozares teikumu
▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
▪ Testa dati
▪ 1581 patvaļīgi izvēlēti teikumi no JRC-Acquis korpusa
▪ ACCURAT balansētais izvērtēšanas korpuss - 512 vispārīgu teikumu
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
Teikuma fragmenti ar SyMHyT Teikuma fragmenti ar ChunkMT
• Recently
• there
• has been an increased interest in the automated
discovery of equivalent expressions in different languages
• .
• Recently there has been an increased interest
• in the automated discovery of equivalent expressions
• in different languages .
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
LINGVISTISKI MOTIVĒTA
MAŠĪNTULKOJUMU KOMBINĒŠANA
Sistēma BLEU Vienādi Bing Google Hugo Yandex
BLEU - - 17.43 17.73 17.14 16.04
MSMT - Google + Bing 17.70 7.25% 43.85% 48.90% - -
MSMT- Google + Bing + LetsMT 17.63 3.55% 33.71% 30.76% 31.98% -
SyMHyT - Google + Bing 17.95 4.11% 19.46% 76.43% - -
SyMHyT - Google + Bing + LetsMT 17.30 3.88% 15.23% 19.48% 61.41% -
ChunkMT - Google + Bing 18.29 22.75% 39.10% 38.15% - -
ChunkMT – visas četras 19.21 7.36% 30.01% 19.47% 32.25% 10.91%
Janvāris 2016
PUBLIKĀCIJAS
• Matīss Rikters
"Multi-system machine translation using online APIs for English-Latvian"
ACL-IJCNLP 2015
• Matīss Rikters and Inguna Skadiņa
"Syntax-based multi-system machine translation"
LREC 2016
DARBI PROCESĀ
• Matīss Rikters and Inguna Skadiņa
"Combining machine translated sentence chunks from multiple MT systems"
Iesniegts uz CICLING 2016
• Matīss Rikters
"K-translate - interactive multi-system machine translation"
Iesniegts uz Baltic DB & IS 2016
• Matīss Rikters and Pēteris Ņikiforovs
"iEMS – an interactive experiment management system for the Moses SMT toolkit "
Plānots iesniegt uz EAMT 2016
• Matīss Rikters
"Recent research in Multi-System Machine Translation"
Plānots iesniegt Baltic Journal of Modern Computing
DARBI PROCESĀ
K-translate - interactive multi-system machine translation
▪ Aptuveni tas pats ChunkMT ietērpts vizuālā noformējumā
▪ Uzzīmē sintakses koku ar iekrāsotiem fragmentiem
▪ Attēlo, no kuras MT sistēmas kurš fragments izvēlēts
▪ Attēlo izvēles pārliecības koeficientu
▪ Piedāvā tulkošanai izmantot tiešsaistes API vai lietotāja ievadītus tulkojumus
▪ Tiks nodrošināti resursi tulkošanai starp angļu, franču, latviešu, vācu valodām
▪ Darbināms tīmekļa pārlūkprogrammā
DARBI PROCESĀ
K-translate - interactive multi-system machine translation
Start page
Translate with
onlinesystems
Inputtranslations
to combine
Input
translated
chunks
Settings
Translation results
Inputsource
sentence
Inputsource
sentence
KODS PIEEJAMS
http://ej.uz/MSMT
http://ej.uz/SyMHyT
http://ej.uz/chunker
TĀLĀKI PLĀNI
▪ Vēl uzlabojumi teikumu dalīšanai fragmentos
▪ Hibrīdajā MT risinājumā ieviest īpašu daudzvārdu
savienojumu apstrādi un pievērst tiem lielāku
uzmanību
▪ Citu veidu valodas modeļi
▪ POS tag + lemma
▪ Recurrent Neural Network Language Model
(Mikolov et al., 2010)
▪ Continuous Space Language Model
(Schwenk et al., 2006)
▪ Character-Aware Neural Language Model
(Kim et al., 2015)
▪ Labākā kandidāta izvēle ar MT kvalitātes prognozi
▪ QuEst++ (Specia et al., 2015)
▪ SHEF-NN (Shah et al., 2015)
Tālākas idejas
ATSAUCES▪ Ahsan, A., and P. Kolachina. "Coupling Statistical Machine Translation with Rule-based Transfer and Generation, AMTA-The Ninth Conference of the
Association for Machine Translation in the Americas." Denver, Colorado (2010).
▪ Barrault, Loïc. "MANY: Open source machine translation system combination." The Prague Bulletin of Mathematical Linguistics 93 (2010): 147-155.
▪ Santanu, Pal, et al. "USAAR-DCU Hybrid Machine Translation System for ICON 2014" The Eleventh International Conference on Natural Language Processing. ,
2014.
▪ Mellebeek, Bart, et al. "Multi-engine machine translation by recursive sentence decomposition." (2006).
▪ Heafield, Kenneth. "KenLM: Faster and smaller language model queries." Proceedings of the Sixth Workshop on Statistical Machine Translation. Association
for Computational Linguistics, 2011.
▪ Steinberger, Ralf, et al. "The JRC-Acquis: A multilingual aligned parallel corpus with 20+ languages." arXiv preprint cs/0609058 (2006).
▪ Petrov, Slav, et al. "Learning accurate, compact, and interpretable tree annotation." Proceedings of the 21st International Conference on Computational
Linguistics and the 44th annual meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2006.
▪ Steinberger, Ralf, et al. "Dgt-tm: A freely available translation memory in 22 languages." arXiv preprint arXiv:1309.5226 (2013).
▪ Raivis Skadiņš, Kārlis Goba, Valters Šics. 2010. Improving SMT for Baltic Languages with Factored Models. Proceedings of the Fourth International Conference
Baltic HLT 2010, Frontiers in Artificial Intelligence and Applications, Vol. 2192. , 125-132.
▪ Mikolov, Tomas, et al. "Recurrent neural network based language model." INTERSPEECH. Vol. 2. 2010.
▪ Schwenk, Holger, Daniel Dchelotte, and Jean-Luc Gauvain. "Continuous space language models for statistical machine translation." Proceedings of the
COLING/ACL on Main conference poster sessions. Association for Computational Linguistics, 2006.
▪ Kim, Yoon, et al. "Character-aware neural language models." arXiv preprint arXiv:1508.06615 (2015).
▪ Specia, Lucia, G. Paetzold, and Carolina Scarton. "Multi-level Translation Quality Prediction with QuEst++." 53rd Annual Meeting of the Association for
Computational Linguistics and Seventh International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing:
System Demonstrations. 2015.
▪ Shah, Kashif, et al. "SHEF-NN: Translation Quality Estimation with Neural Networks." Proceedings of the Tenth Workshop on Statistical Machine Translation.
2015.
PALDIES!
Jautājumi?

More Related Content

Viewers also liked

Viewers also liked (15)

Doktorantūras semināra 3. prezentācija
Doktorantūras semināra 3. prezentācijaDoktorantūras semināra 3. prezentācija
Doktorantūras semināra 3. prezentācija
 
Apache Spark y Big Data
Apache Spark y Big DataApache Spark y Big Data
Apache Spark y Big Data
 
Taller de vins de l'Empordà
Taller de vins de l'EmpordàTaller de vins de l'Empordà
Taller de vins de l'Empordà
 
Flask! - python web framework flask 튜토리얼
Flask! - python web framework flask 튜토리얼Flask! - python web framework flask 튜토리얼
Flask! - python web framework flask 튜토리얼
 
RESENHA Do artesanato intelectual
RESENHA Do artesanato intelectualRESENHA Do artesanato intelectual
RESENHA Do artesanato intelectual
 
Крупнейшие рекламодатели Украины, интернет - баннерная и видео реклама, июнь ...
Крупнейшие рекламодатели Украины, интернет - баннерная и видео реклама, июнь ...Крупнейшие рекламодатели Украины, интернет - баннерная и видео реклама, июнь ...
Крупнейшие рекламодатели Украины, интернет - баннерная и видео реклама, июнь ...
 
Memoria maqueta conceptual
Memoria maqueta conceptualMemoria maqueta conceptual
Memoria maqueta conceptual
 
Introduccion a Machine Learning
Introduccion a Machine LearningIntroduccion a Machine Learning
Introduccion a Machine Learning
 
Using Big Data techniques to query and store OpenStreetMap data. Stephen Knox...
Using Big Data techniques to query and store OpenStreetMap data. Stephen Knox...Using Big Data techniques to query and store OpenStreetMap data. Stephen Knox...
Using Big Data techniques to query and store OpenStreetMap data. Stephen Knox...
 
Welcome to ionic 2
Welcome to ionic 2Welcome to ionic 2
Welcome to ionic 2
 
Kevin Lynch. Mental maps
Kevin Lynch. Mental mapsKevin Lynch. Mental maps
Kevin Lynch. Mental maps
 
Lightning Talk #10: Creating a Design-Centered Culture in Organizations: Lear...
Lightning Talk #10: Creating a Design-Centered Culture in Organizations: Lear...Lightning Talk #10: Creating a Design-Centered Culture in Organizations: Lear...
Lightning Talk #10: Creating a Design-Centered Culture in Organizations: Lear...
 
Lightning Talk #6: UX Coaching for Organisational Transformation by Jodine St...
Lightning Talk #6: UX Coaching for Organisational Transformation by Jodine St...Lightning Talk #6: UX Coaching for Organisational Transformation by Jodine St...
Lightning Talk #6: UX Coaching for Organisational Transformation by Jodine St...
 
Stephen hawking ppt
Stephen hawking pptStephen hawking ppt
Stephen hawking ppt
 
Translation Engine
Translation EngineTranslation Engine
Translation Engine
 

More from Matīss ‎‎‎‎‎‎‎  

More from Matīss ‎‎‎‎‎‎‎   (20)

日本のお風呂
日本のお風呂日本のお風呂
日本のお風呂
 
Thrifty Food Tweets on a Rainy Day
Thrifty Food Tweets on a Rainy DayThrifty Food Tweets on a Rainy Day
Thrifty Food Tweets on a Rainy Day
 
私の趣味
私の趣味私の趣味
私の趣味
 
How Masterly Are People at Playing with Their Vocabulary?
How Masterly Are People at Playing with Their Vocabulary?How Masterly Are People at Playing with Their Vocabulary?
How Masterly Are People at Playing with Their Vocabulary?
 
私の町リガ
私の町リガ私の町リガ
私の町リガ
 
大学への交通手段
大学への交通手段大学への交通手段
大学への交通手段
 
小学生に 携帯電話
小学生に 携帯電話小学生に 携帯電話
小学生に 携帯電話
 
Tracing multisensory food experience on twitter
Tracing multisensory food experience on twitterTracing multisensory food experience on twitter
Tracing multisensory food experience on twitter
 
ラトビア大学
ラトビア大学ラトビア大学
ラトビア大学
 
私の趣味
私の趣味私の趣味
私の趣味
 
富士山りょこう
富士山りょこう富士山りょこう
富士山りょこう
 
Tips and Tools for NMT
Tips and Tools for NMTTips and Tools for NMT
Tips and Tools for NMT
 
Hybrid Machine Translation by Combining Multiple Machine Translation Systems
Hybrid Machine Translation by Combining Multiple Machine Translation SystemsHybrid Machine Translation by Combining Multiple Machine Translation Systems
Hybrid Machine Translation by Combining Multiple Machine Translation Systems
 
The Impact of Corpora Qulality on Neural Machine Translation
The Impact of Corpora Qulality on Neural Machine TranslationThe Impact of Corpora Qulality on Neural Machine Translation
The Impact of Corpora Qulality on Neural Machine Translation
 
Advancing Estonian Machine Translation
Advancing Estonian Machine TranslationAdvancing Estonian Machine Translation
Advancing Estonian Machine Translation
 
Debugging neural machine translations
Debugging neural machine translationsDebugging neural machine translations
Debugging neural machine translations
 
Effective online learning implementation for statistical machine translation
Effective online learning implementation for statistical machine translationEffective online learning implementation for statistical machine translation
Effective online learning implementation for statistical machine translation
 
Neirontulkojumu atkļūdošana
Neirontulkojumu atkļūdošanaNeirontulkojumu atkļūdošana
Neirontulkojumu atkļūdošana
 
Hybrid machine translation by combining multiple machine translation systems
Hybrid machine translation by combining multiple machine translation systemsHybrid machine translation by combining multiple machine translation systems
Hybrid machine translation by combining multiple machine translation systems
 
Paying attention to MWEs in NMT
Paying attention to MWEs in NMTPaying attention to MWEs in NMT
Paying attention to MWEs in NMT
 

Mašīntulkojumu kombinēšana - Tildes pētniecības seminārs

  • 1. MAŠĪNTULKOJUMU KOMBINĒŠANA Matīss Rikters Darba vadītāja: Dr. Dat., prof. Inguna Skadiņa Tildes pētniecības seminārs Rīgā, 2016. gada 4. martā
  • 2. PIRMĀ PREZENTĀCIJA ▪ http://tbs/dev/ai/ResearchSeminar/MSMT.ppt ▪ http://www.slideshare.net/matissrikters/msmt-47423148
  • 3. PIRMĀ PREZENTĀCIJA ▪ Pastāstīts par ▪ MT virzieniem ▪ Hibrīdās MT veidiem ▪ Literatūras izpēti par daudzsistēmu hibrīdo MT ▪ Plānotiem eksperimentiem, citiem padarītajiem un plānotajiem darbiem
  • 4. SATURS ▪ Hibrīdā mašīntulkošana ▪ Daudzsistēmu hibrīdā MT ▪ Vienkārša mašīntulkojumu kombinēšana ▪ Veselu tulkojumu kombinēšana ▪ Tulkojumu daļu kombinēšana ▪ Lingvistiski motivēta mašīntulkojumu kombinēšana ▪ Citi darbi ▪ Tālāki plāni
  • 5. HIBRĪDĀ MAŠĪNTULKOŠANA ▪ Statistiskā likumu ģenerēšana ▪ RBMT sistēmas likumi ģenerēti no treniņu korpusiem ▪ Vairākkārtēja apstrāde (multi-pass) ▪ Secīga datu apstrāde sākumā ar RBMT, tad SMT ▪ Daudzsistēmu hibrīdā MT ▪ Paralēli darbinātas vairākas MT sistēmas
  • 6. DAUDZSISTĒMU HIBRĪDĀ MT Līdzīgi pētījumi: ▪ SMT + RBMT (Ahsan and Kolachina, 2010) ▪ Confusion networks (Barrault, 2010) ▪ + neironu tīklu modelis (Freitag et al., 2015) ▪ SMT + EBMT + TM + NE (Santanu et al., 2014) ▪ Rekursīva teikumu dekompozīcija (Mellebeek et al., 2006)
  • 7. MAŠĪNTULKOJUMU KOMBINĒŠANA ▪ Veselu tulkojumu kombinēšana ▪ Iztulko pilnu teikumu ar vairākām MT sistēmām ▪ Izvēlas labāko
  • 8. MAŠĪNTULKOJUMU KOMBINĒŠANA ▪ Veselu tulkojumu kombinēšana ▪ Iztulko pilnu teikumu ar vairākām MT sistēmām ▪ Izvēlas labāko ▪ Tulkojumu fragmentu kombinēšana ▪ Sadala teikumu fragmentos ▪ Kā fragmenti tiek ņemti teikuma sintakses koka augstākie apakškoki ▪ Iztulko katru fragmentu ar vairākām MT sistēmām ▪ Izvēlas labākos fragmentus un tos apvieno
  • 9. VESELU TULKOJUMU KOMBINĒŠANA Teikumu dalīšana tekstvienībās Tulkošana ar tiešsaistes MT API Google Translate Bing Translator LetsMT Labākā tulkojuma izvēle Tulkojuma izvade
  • 10. VESELU TULKOJUMU KOMBINĒŠANA Labākā tulkojuma izvēle: KenLM (Heafield, 2011) calculates probabilities based on the observed entry with longest matching history 𝑤𝑓 𝑛 : 𝑝 𝑤 𝑛 𝑤1 𝑛−1 = 𝑝 𝑤 𝑛 𝑤𝑓 𝑛−1 𝑖=1 𝑓−1 𝑏(𝑤𝑖 𝑛−1 ) where the probability 𝑝 𝑤 𝑛 𝑤𝑓 𝑛−1 and backoff penalties 𝑏(𝑤𝑖 𝑛−1 ) are given by an already-estimated language model. Perplexity is then calculated using this probability: where given an unknown probability distribution p and a proposed probability model q, it is evaluated by determining how well it predicts a separate test sample x1, x2... xN drawn from p.
  • 11. VESELU TULKOJUMU KOMBINĒŠANA Labākā tulkojuma izvēle: ▪ Trenēts 5-grammu valodas modelis ar ▪ KenLM ▪ JRC-Acquis korpusu v. 2.2 (Steinberger, 2006) - 1.4 miljoniem latviešu valodas juridiskā domēna teikumu ▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
  • 12. VESELU TULKOJUMU KOMBINĒŠANA Labākā tulkojuma izvēle: ▪ Trenēts 5-grammu valodas modelis ar ▪ KenLM ▪ JRC-Acquis korpusu v. 2.2 (Steinberger, 2006) - 1.4 miljoniem latviešu valodas juridiskā domēna teikumu ▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu ▪ Testa dati ▪ 1581 patvaļīgi izvēlēti teikumi no JRC-Acquis korpusa ▪ Mēģināts arī ACCURAT balansētais izvērtēšanas korpuss - 512 vispārīgu teikumu (Skadiņš et al., 2010), bet rezultāti bija mazāk labi
  • 13. VESELU TULKOJUMU KOMBINĒŠANA Sistēma BLEU Izvēlēto tulkojumu īpatsvars Google Bing LetsMT Vienādi Google Translate 16.92 100 % - - - Bing Translator 17.16 - 100 % - - LetsMT 28.27 - - 100 % - Hibrīds Google + Bing 17.28 50.09 % 45.03 % - 4.88 % Hibrīds Google + LetsMT 22.89 46.17 % - 48.39 % 5.44 % Hibrīds LetsMT + Bing 22.83 - 45.35 % 49.84 % 4.81 % Hibrīds Google + Bing + LetsMT 21.08 28.93 % 34.31 % 33.98 % 2.78 % Maijs 2015
  • 14. TULKOJUMU FRAGMENTU KOMBINĒŠANA Teikumu dalīšana tekstvienībās Tulkošana ar tiešsaistes MT API Google Translate Bing Translator LetsMT Labāko fragmentu izvēle Tulkojumu izvade Teikumu sadalīšana fragmentos Sintaktiskā analīze Teikumu apvienošana
  • 15. TULKOJUMU FRAGMENTU KOMBINĒŠANA ▪ Sintaktiskā analīze: ▪ Berkeley Parser (Petrov et al., 2006) ▪ Teikuma sadalīšana fragmentos no sintakses koka augšējā līmeņa apakškokiem
  • 16. TULKOJUMU FRAGMENTU KOMBINĒŠANA ▪ Sintaktiskā analīze: ▪ Berkeley Parser (Petrov et al., 2006) ▪ Teikuma sadalīšana fragmentos no sintakses koka augšējā līmeņa apakškokiem ▪ Labākā fragmenta izvēle: ▪ 5-grammu valodas modelis ar KenLM un JRC-Acquis korpusu - 1.4 miljoniem latviešu valodas juridiskā domēna teikumu ▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu
  • 17. TULKOJUMU FRAGMENTU KOMBINĒŠANA ▪ Sintaktiskā analīze: ▪ Berkeley Parser (Petrov et al., 2006) ▪ Teikuma sadalīšana fragmentos no sintakses koka augšējā līmeņa apakškokiem ▪ Labākā fragmenta izvēle: ▪ 5-grammu valodas modelis ar KenLM un JRC-Acquis korpusu - 1.4 miljoniem latviešu valodas juridiskā domēna teikumu ▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu ▪ Testa dati ▪ 1581 patvaļīgi izvēlēti teikumi no JRC-Acquis korpusa ▪ Mēģināts arī ACCURAT balansētais izvērtēšanas korpuss - 512 vispārīgu teikumu, bet rezultāti bija mazāk labi
  • 18. Sistēma BLEU Izvēlēto tulkojumu īpatsvars MSMT SyMHyT Google Bing LetsMT Google Translate 18.09 100% - - Bing Translator 18.87 - 100% - LetsMT 30.28 - - 100% Hibrīds Google + Bing 18.73 21.27 74% 26% - Hibrīds Google + LetsMT 24.50 26.24 25% - 75% Hibrīds LetsMT + Bing 24.66 26.63 - 24% 76% Hibrīds Google + Bing + LetsMT 22.69 24.72 17% 18% 65% TULKOJUMU FRAGMENTU KOMBINĒŠANASeptembris 2015
  • 19. LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA ▪ Gudrāka teikumu dalīšana fragmentos ▪ Teikuma koku apstaigā no lejas uz augšu, no labās uz kreiso pusi ▪ Pievieno vārdu aktuālajam fragmentam, ja ▪ Fragmentā nav pārāk daudz vārdu (teikuma vārdu skaits / 4) ▪ Vārds ir tikai vienu simbolu garš vai nesatur alfabēta simbolus ▪ Aktuālais fragments sākas ar ģenitīva frāzi («of ») ▪ Citādāk veido jaunu fragmentu ▪ Ja sanāk ļoti daudz fragmentu, process tiek atkārtots, pieļaujot fragmentā vairāk kā (teikuma vārdu skaits / 4) vārdu
  • 20. LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA ▪ Gudrāka teikumu dalīšana fragmentos ▪ Teikuma koku apstaigā no lejas uz augšu, no labās uz kreiso pusi ▪ Pievieno vārdu aktuālajam fragmentam, ja ▪ Fragmentā nav pārāk daudz vārdu (teikuma vārdu skaits / 4) ▪ Vārds ir tikai vienu simbolu garš vai nesatur alfabēta simbolus ▪ Aktuālais fragments sākas ar ģenitīva frāzi («of ») ▪ Citādāk veido jaunu fragmentu ▪ Ja sanāk ļoti daudz fragmentu, process tiek atkārtots, pieļaujot fragmentā vairāk kā (teikuma vārdu skaits / 4) vārdu ▪ Izmaiņas MT API sistēmās ▪ LetsMT Tildes biroja sistēmas API vietā pagaidām Hugo.lv API ▪ Pievienots Yandex API
  • 21. LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA Teikuma sintakses koks Koka datu struktūra Fragmentu saraksts Koka datu struktūra ar marķētiem fragmentiem Apstaigā koku/apakškoku Aktuālā koka/apakškoka fragments fvs < tvs / 4 fvs > 1 Pievieno fragmentu sarakstam Apvieno ar pēdējo fragmentu sarakstā fvs = 1 Ģenitīva frāze Nealfabētisks fvs – fragmenta vārdu skaits tvs – teikuma vārdu skaits
  • 22. Labākā tulkojuma izvēle: ▪ Trenēti 6-grammu un 12-grammu valodas modeļi ar ▪ KenLM ▪ JRC-Acquis korpusu v. 2.2 - 1.4 miljoniem latviešu valodas juridiskās nozares teikumu ▪ DGT-Translation Memory korpusu (Steinberger, 2011) – 3.1 miljoniem latviešu valodas juridiskās nozares teikumu ▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA
  • 23. Labākā tulkojuma izvēle: ▪ Trenēti 6-grammu un 12-grammu valodas modeļi ar ▪ KenLM ▪ JRC-Acquis korpusu v. 2.2 - 1.4 miljoniem latviešu valodas juridiskās nozares teikumu ▪ DGT-Translation Memory korpusu (Steinberger, 2011) – 3.1 miljoniem latviešu valodas juridiskās nozares teikumu ▪ Teikumi novērtēti attiecībā pret valodas modeli ar KenLM query programmu ▪ Testa dati ▪ 1581 patvaļīgi izvēlēti teikumi no JRC-Acquis korpusa ▪ ACCURAT balansētais izvērtēšanas korpuss - 512 vispārīgu teikumu LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA
  • 24. LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA Teikuma fragmenti ar SyMHyT Teikuma fragmenti ar ChunkMT • Recently • there • has been an increased interest in the automated discovery of equivalent expressions in different languages • . • Recently there has been an increased interest • in the automated discovery of equivalent expressions • in different languages .
  • 27. LINGVISTISKI MOTIVĒTA MAŠĪNTULKOJUMU KOMBINĒŠANA Sistēma BLEU Vienādi Bing Google Hugo Yandex BLEU - - 17.43 17.73 17.14 16.04 MSMT - Google + Bing 17.70 7.25% 43.85% 48.90% - - MSMT- Google + Bing + LetsMT 17.63 3.55% 33.71% 30.76% 31.98% - SyMHyT - Google + Bing 17.95 4.11% 19.46% 76.43% - - SyMHyT - Google + Bing + LetsMT 17.30 3.88% 15.23% 19.48% 61.41% - ChunkMT - Google + Bing 18.29 22.75% 39.10% 38.15% - - ChunkMT – visas četras 19.21 7.36% 30.01% 19.47% 32.25% 10.91% Janvāris 2016
  • 28. PUBLIKĀCIJAS • Matīss Rikters "Multi-system machine translation using online APIs for English-Latvian" ACL-IJCNLP 2015 • Matīss Rikters and Inguna Skadiņa "Syntax-based multi-system machine translation" LREC 2016
  • 29. DARBI PROCESĀ • Matīss Rikters and Inguna Skadiņa "Combining machine translated sentence chunks from multiple MT systems" Iesniegts uz CICLING 2016 • Matīss Rikters "K-translate - interactive multi-system machine translation" Iesniegts uz Baltic DB & IS 2016 • Matīss Rikters and Pēteris Ņikiforovs "iEMS – an interactive experiment management system for the Moses SMT toolkit " Plānots iesniegt uz EAMT 2016 • Matīss Rikters "Recent research in Multi-System Machine Translation" Plānots iesniegt Baltic Journal of Modern Computing
  • 30. DARBI PROCESĀ K-translate - interactive multi-system machine translation ▪ Aptuveni tas pats ChunkMT ietērpts vizuālā noformējumā ▪ Uzzīmē sintakses koku ar iekrāsotiem fragmentiem ▪ Attēlo, no kuras MT sistēmas kurš fragments izvēlēts ▪ Attēlo izvēles pārliecības koeficientu ▪ Piedāvā tulkošanai izmantot tiešsaistes API vai lietotāja ievadītus tulkojumus ▪ Tiks nodrošināti resursi tulkošanai starp angļu, franču, latviešu, vācu valodām ▪ Darbināms tīmekļa pārlūkprogrammā
  • 31. DARBI PROCESĀ K-translate - interactive multi-system machine translation Start page Translate with onlinesystems Inputtranslations to combine Input translated chunks Settings Translation results Inputsource sentence Inputsource sentence
  • 33. TĀLĀKI PLĀNI ▪ Vēl uzlabojumi teikumu dalīšanai fragmentos ▪ Hibrīdajā MT risinājumā ieviest īpašu daudzvārdu savienojumu apstrādi un pievērst tiem lielāku uzmanību ▪ Citu veidu valodas modeļi ▪ POS tag + lemma ▪ Recurrent Neural Network Language Model (Mikolov et al., 2010) ▪ Continuous Space Language Model (Schwenk et al., 2006) ▪ Character-Aware Neural Language Model (Kim et al., 2015) ▪ Labākā kandidāta izvēle ar MT kvalitātes prognozi ▪ QuEst++ (Specia et al., 2015) ▪ SHEF-NN (Shah et al., 2015) Tālākas idejas
  • 34. ATSAUCES▪ Ahsan, A., and P. Kolachina. "Coupling Statistical Machine Translation with Rule-based Transfer and Generation, AMTA-The Ninth Conference of the Association for Machine Translation in the Americas." Denver, Colorado (2010). ▪ Barrault, Loïc. "MANY: Open source machine translation system combination." The Prague Bulletin of Mathematical Linguistics 93 (2010): 147-155. ▪ Santanu, Pal, et al. "USAAR-DCU Hybrid Machine Translation System for ICON 2014" The Eleventh International Conference on Natural Language Processing. , 2014. ▪ Mellebeek, Bart, et al. "Multi-engine machine translation by recursive sentence decomposition." (2006). ▪ Heafield, Kenneth. "KenLM: Faster and smaller language model queries." Proceedings of the Sixth Workshop on Statistical Machine Translation. Association for Computational Linguistics, 2011. ▪ Steinberger, Ralf, et al. "The JRC-Acquis: A multilingual aligned parallel corpus with 20+ languages." arXiv preprint cs/0609058 (2006). ▪ Petrov, Slav, et al. "Learning accurate, compact, and interpretable tree annotation." Proceedings of the 21st International Conference on Computational Linguistics and the 44th annual meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2006. ▪ Steinberger, Ralf, et al. "Dgt-tm: A freely available translation memory in 22 languages." arXiv preprint arXiv:1309.5226 (2013). ▪ Raivis Skadiņš, Kārlis Goba, Valters Šics. 2010. Improving SMT for Baltic Languages with Factored Models. Proceedings of the Fourth International Conference Baltic HLT 2010, Frontiers in Artificial Intelligence and Applications, Vol. 2192. , 125-132. ▪ Mikolov, Tomas, et al. "Recurrent neural network based language model." INTERSPEECH. Vol. 2. 2010. ▪ Schwenk, Holger, Daniel Dchelotte, and Jean-Luc Gauvain. "Continuous space language models for statistical machine translation." Proceedings of the COLING/ACL on Main conference poster sessions. Association for Computational Linguistics, 2006. ▪ Kim, Yoon, et al. "Character-aware neural language models." arXiv preprint arXiv:1508.06615 (2015). ▪ Specia, Lucia, G. Paetzold, and Carolina Scarton. "Multi-level Translation Quality Prediction with QuEst++." 53rd Annual Meeting of the Association for Computational Linguistics and Seventh International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing: System Demonstrations. 2015. ▪ Shah, Kashif, et al. "SHEF-NN: Translation Quality Estimation with Neural Networks." Proceedings of the Tenth Workshop on Statistical Machine Translation. 2015.