Ontwikkelingen rond literair vertalen en technologie   24-01-2021

een inleiding

Gys-Walt van Egdom
Joke Daems
 

In deze inleiding op het dossier ‘Literaire vertaling en technologie’ kijken we eerst naar de geschiedenis van de vertaaltechnologie. Vervolgens reflecteren we kort op de verhouding tussen technologie en literair vertalen in en buiten de vertaalwetenschap. Met deze introductie leggen we uit waarom dit dossier juist nu verschijnt. Bij wijze van conclusie gaan we ook nog even in op de dossierbijdragen.

Een korte geschiedenis van de vertaaltechnologie
Vertaling bekleedt een belangrijke rol in de geschiedenis van de informatie- en communicatietechnologie. Er wordt al eeuwen over automatisering van vertaling gefantaseerd. In de eerste helft van de twintigste eeuw resulteerden de denkoefeningen voor het eerst in een aantal patenten die op ‘vertaalsystemen’ (of wat ervoor moest doorgaan) werden aangevraagd. De vertaaltechnologie nam, zoals we dat wel vaker zien bij technologieën, pas echt een vlucht in oorlogstijd. Tijdens de Tweede Wereldoorlog leverden de cryptoanalisten van de geallieerden, met name de analisten van de Britse Government Code and Cipher School, duizelingwekkende prestaties door onder andere de codes van de Lorenzmachine en de Schlüsselmaschine E (oftewel: de Enigma), die door de asmogendheden werden gebruikt om veilig berichten te versturen, te kraken (Anastasiou 2010).

Het optimisme van de computationele wetenschappers kende aanvankelijk geen maat: er werd voorspeld dat volwaardige machinevertaling, gevat in het acroniem ‘FAHQT’ (Fully Automatic High-Quality Translation), binnen vijf jaar tot de mogelijkheden zou behoren (Bar-Hillel 1960). Het optimisme was het grootst na het Georgetown-IBM-experiment, waarin werd gedemonstreerd hoe een computer meer dan zestig Russische zinnen in correct Engels wist om te zetten (ibidem). Aanvankelijk trok de ontwikkeling van vertaalmachines, mede door de continuering van de oorlog in de vorm van de Koude Oorlog, dus gigantische investeringen van overheden aan. De kraan werd iets meer dan tien jaar later echter dichtgedraaid: met de publicatie van het ALPAC-verslag was het klip en klaar dat ‘there has been no machine translation of general scientific text, and none is in immediate prospect’ (1966, p. 19; zie Josselson 171, p. 44-48). De vijfjarenbelofte was een running gag geworden.

Toch is de moed niet bij alle computerwetenschappers in de schoenen gezakt. De toenmalige state-of-the-arttechnologie, ‘Rule-based Machine Translation’ (RbMT), werd in bepaalde kringen doorontwikkeld (zie voor meer informatie over RbMT: Forcada 2010; Poibeau 2017, p. 49-74). Dat machinevertaling nog niet helemaal zieltogend was, bleek onder andere in 1976 toen de vertaalmachine van SYSTRAN, die al sinds de oprichting van het bedrijf door Amerikaanse overheidsdiensten in gebruik werd genomen, door de Europese (Economische) Gemeenschap werd omarmd. Europa gebruikte het systeem voor zogenaamde ‘gist translation’, waarbij de machineoutput in zijn ruwe vorm wordt ingezet, maar ook voor ‘post-editing’, waarbij de output door vertalers wordt bewerkt (zie Wagner 1985; Wilks 1992).

Er werden ook andere initiatieven ontplooid om de vertaaltechnologie een duwtje in de rug te geven. In de jaren 1970 en 1980, jaren die misschien wel als de ‘dark ages’ van de machinevertaling kunnen worden getypeerd, kwam de ontwikkeling van Computer-aided Translation Tools (CAT-tools) op gang. Computerwetenschappers en softwareontwikkelaars, die ervan doordrongen waren dat FAHQT niet tot de mogelijkheden behoorde, kwamen tot de conclusie dat onderdelen van de bestaande vertaaltechnologie konden worden ingezet ter ondersteuning van vertalers (Bar-Hillel 1960; Kay 1980; Melby 1981, 1992). De standaardmodules van de eerste CAT-tools waren: 1) een vertaalgeheugen, in feite een database van brontekstsegmenten met corresponderende vertaling, en 2) een terminologiedatabank (‘termbase’). De eerste CAT-systemen kostten klauwen met geld: ze waren voorbehouden aan grote bedrijven. Tijdens de jaren 1990 kwam er verandering in die situatie: SDL Trados lanceerde de Translator’s Workbench [1995], een tool die ook door middelgrote ondernemingen in gebruik werd genomen. In de zakelijke vertaalwereld werd CAT-toolgebruik al snel de norm (Hutchins 1998). Toen het internettijdperk aanbrak, verschenen er steeds meer tools op de markt. De echte revolutie in de ontwikkeling van CAT-tools vond plaats met de opkomst van cloudtechnologie: logge standalonetools werden ingeruild voor cloud-based software, die werd aangevuld met allerhande applicaties. De term ‘CAT-tool’ is nog erg in zwang, maar tegenwoordig wordt er, door de uitbreiding van de software, ook een breder begrip gehanteerd: Translation Environment Tools (TEnTs). In deze suites worden concordancers, termextractors, tekstanalysetools, quality assurance tools en projectmanagementmodules samengebracht (zie Bowker en Fisher 2010).

Wat ook aan een TEnT kan worden gekoppeld, is een vertaalmachine. De reden waarom men daar weer echt heil in is gaan zien, was de beschikbaarheid van enorme tekstcorpora op het internet. Je zou kunnen zeggen dat RbMT nog geschoeid was op de leest van de toenmalige taalwetenschap: de kwaliteit van de output was afhankelijk van een goed inzicht in de grammaticale structuren van talen en een kwalitatief hoogwaardige voeding met lexica (meertalige woordenlijsten). RbMT werd aan het begin van het nieuwe millennium al snel overvleugeld door Statistical Machine Translation (SMT). Grote hoeveelheden tekst werden als invoer gebruikt en de vertaalmachine genereerde, simpel gesteld, op basis van een waarschijnlijkheidsberekening en taalmodellen een vertaling. Na de ingebruikneming van Google Translate [2006] wist SMT een tijdje hoge toppen te scheren: het geloof in het FAHQT-ideaal werd bij ‘techoptimisten’ gesterkt. Toch stuitte men ook bij SMT op de grenzen van de technologie: SMT had uiteindelijk geen boodschap aan semantiek en wist niet wat ze met grammatica moest aanvangen. Bovendien was het nog zo dat een gebrekkige semantische en grammaticale output in de hand werd gewerkt door het GIGO-principe (of Garbage In Garbage Out-principe). Tekstcorpora die van het internet werden geplukt waren zeker geen ‘schone’ data: dit had een effect op de berekeningen van SMT (zie voor meer informatie over SMT: Koehn 2010, Poibeau 2017).

Toch heeft de machinevertaling een flinke impuls gekend: door SMT is machinevertaling overal te vinden en is het besef gegroeid dat de output na bewerking best bruikbaar kon zijn. In wetenschappelijke en professionele teksten werd steeds vaker geclaimd dat de vertaler van de toekomst een ‘post-editor’ zou zijn (zie Pym 2013).

Inmiddels zijn we alweer bijna een lustrum in de ban van een nieuwe technologie: Neural Machine Translation (NMT), een technologie die, zoals de term al aangeeft, op neurale netwerken in het menselijk brein is geënt. Met deze technologie werd al in de jaren 1990 geëxperimenteerd (Forcada en Ñeco 1997, Castaño, Casacuberta en Vidal 1997), maar het vermogen van computers was in die tijd verre van toereikend. In 2016 deed Google de vertaalwereld op haar grondvesten daveren toen het bedrijf claimde dat Google NMT automatische vertalingen wist te produceren die niet of nauwelijks voor ‘gewone’ vertalingen onderdeden (Wu et al. 2016). NMT-systemen kun je nog altijd typeren als statistische vertaalmachines, maar ze worden gekenmerkt door het vermogen om (na een uitgebreide training) zelf te ‘leren’, en nieuwe data te verwerken. Door dat zelflerende vermogen kunnen ze, door technieken als ‘word embedding’ en ‘semantische vectorrepresentaties’, betekenisrelaties afleiden. Om een voorbeeld te geven: een SMT-systeem ziet geen semantische overeenkomst tussen de woorden ‘kuiken’ en ‘kuikens’ of tussen ‘kuiken’ en ‘kip’; een NMT-engine kan die overeenkomst (na instructie of inferentie) wel detecteren (Forcada 2017; Koehn 2018). Het zelflerende vermogen komt het beste tot uiting in de productie van nieuwe woorden: waar SMT een ‘niet-vertaalbaar’ woord in de vertaling nog onvertaald weergaf, daar doet NMT een gokje (op basis van word embedding) (Koehn 2018). Met veel computervermogen, brandschone data en een gedegen training weet NMT fantastische resultaten te boeken. Toch weet NMT de belofte van FAHQT ‘of unrestriced text’, ondanks alle enthousiasme in de computationele linguïstiek, nog niet gestand te doen. Bepaalde met de machine vertaalde teksten en teksttypes kunnen zonder of met minimale menselijke bewerking als zelfstandige tekst functioneren, maar NMT bewijst nog vaak het gelijk van de sceptici (Koehn en Knowles 2017; zie voor meer informatie over NMT: Koehn 2020).

Literaire vertaling: een onneembare vesting?
Door bovenstaande ontwikkelingen speelt technologie al decennia een belangrijke rol in de vertaalindustrie. CAT-tools/TEnTs zijn niet meer uit de industrie weg te denken. Machinevertaling en post-editing worden in de vertaaldienstverlening steeds vaker als aparte diensten aangeboden. Kortom, het aantal vertaalopdrachten dat niet met ondersteuning van vertaaltechnologie wordt geproduceerd, is zeer klein.

De toenemende automatisering wordt ook al enige tijd in de literaire wereld opgemerkt. Toch is er lang smakelijk gelachen om de nieuwe snufjes die vertalers moesten helpen of zelfs vervangen. Zeer typerend voor de perceptie van literair vertalers is de reeks teksten die Martin de Haan in Filter publiceerde over de fictieve vertaaltool ‘Tovertaal’ (zie De Haan 2002a, 2002b, 2002c, 2002d). Uit deze vermakelijke reeks kon worden opgemaakt dat vertaaltechnologie (of eigenlijk: machinevertaling) geen knip voor de neus waard was.

De toon is in de literaire vertaalwereld inmiddels omgeslagen of op zijn minst gematigd. Dat blijkt onder andere uit een reeks columns die De Haan in 2019 voor Filter schreef. In ‘Vertalen in de toekomst (bis)’ geeft De Haan aan dat de menselijke vertaler (in sommige kringen spreekt men zelfs van de ‘biotraducteur’) nog niet met uitsterven wordt bedreigd. Toch ziet hij dat de vertaaltechnologie ook in de literaire tak binnendringt. De technologie dient, zoals hij beweert, de menselijke vertaler dolkstoten toe:

Wat ons boven het hoofd hangt is niet het grote, tot de verbeelding sprekende zwaard van de supercomputer die de mens volledig zal vervangen (aangenomen dat er dan nog menselijke lezers zijn), maar een wolkje van kleine dolkjes die het vak ogenschijnlijk juist veel aangenamer helpen maken: zoekmachines, elektronische woordenboeken, vertaalgeheugens, terminologiedatabases – en toch ook machinevertalingen, maar dan zonder de pretentie dat die het uiteindelijk beter moeten kunnen dan wij: ze maken gewoon een niet onaardig kladje, dat scheelt als het meezit flink wat tikwerk. (p. 48, cursivering GvE & JD)

Het betoog dat De Haan afsteekt, dat (als vanouds) draait rond de auteurspositie van de vertaler en rond een gepaste beloning voor dit auctoriële werk, zullen we, ondanks onze sympathie voor de verkondigde ideeën, niet uitgebreid behandelen. Wat het bovenstaande fragment lijkt te onderschrijven, is het idee dat vertaaltechnologie sinds relatief korte tijd ook een rol van betekenis heeft opgeëist in de literaire sector en dat we het ons niet kunnen veroorloven die rol te negeren of onderschatten (zie ook Van Egdom, Bloemen en Segers 2017).

Dit valt overigens ook af te leiden uit de (snel) toenemende interesse in de vertaalwetenschap, waar technologie steeds vaker op literair vertalen wordt betrokken. Toral en Way typeerden de literaire vertaling nog niet zo lang geleden als ‘the last bastion of human translation’ (2014, p. 174). Dat bastion lieten vertaalwetenschappers lange tijd links liggen, omdat de creatieve arbeid van literaire vertalers haaks leek te staan op automatisering. Inmiddels wordt er echter al redelijk wat onderzoek verricht naar manieren waarop dataminingtools, vertaalgeheugens en datavisualisatietools literaire vertalers kunnen ondersteunen (zie Youdale 2019; Rothwell en Youdale, te verschijnen). Recent is er zelfs een term gemunt om de technologisch ‘ondersteunde’ vorm van literair vertalen te classificeren: ‘Computer-assisted Literary Translation’ (of CALT).

Tegelijkertijd zien we dat machinevertaling, mede door het optimisme rond NMT, weer volop in de vertaalwetenschappelijke belangstelling staat. Sleutelpublicaties in deze context zijn de publicaties van Antonio Toral, die onderzoek heeft verricht naar de perceptie van de kwaliteit van machinevertaling, de toepassing van post-editing op machinevertalingen van literaire teksten en de invloed van machinevertaling en post-editing op creativiteit (Toral en Way 2015a, 2015b, 2018; Toral, Wieling en Way 2018, Moorkens et al. 2018; zie ook: Besacier en Schwartz 2015). Minder aanwezig maar minstens net zo opvallend zijn de recente onderzoeken van Van de Cruys (2019, 2020). Hij richtte de aandacht aanvankelijk vooral op de automatische productie van poëzie, maar verkent inmiddels de mogelijkheden van machinevertaling van poëzie.

Wie met een kritische blik naar bovenstaand onderzoek kijkt, zal niet snel concluderen dat de vesting van de literaire vertaling niet langer onneembaar wordt geacht. Toch worden we wel aangespoord om na te denken over de verhouding tussen literair vertalen en technologie. Daarbij moet natuurlijk niet alleen gekeken worden naar tekstuele eigenschappen van literaire teksten en technologische mogelijkheden, maar ook naar de onbetwiste spin in het web: de (menselijke) vertaler. Hoewel het goed mogelijk is dat vertaalprocessen kunnen worden ondersteund met allerhande hulpmiddeltjes en technologie kan helpen de kwaliteit van literaire vertalingen te verbeteren, is het nog geen vanzelfsprekendheid dat literaire vertalers de nieuwe technologieën ook zullen omarmen. Het is daarom zinvol om te kijken naar het gebruik van technologie door literaire vertaling en de houding tegenover technologie (Ruffo 2018). Door hier inzicht in te verwerven kunnen softwareontwikkelaars zoeken naar een juiste afstemming van technologische mogelijkheden op de werkwijze en wensen van vertalers (zie o.a. Olohan 2011; O’Brien 2012).

Inzicht in gebruik en houding kan ook helpen bij het scherpstellen van de technologische competenties waar literair vertalers en literair vertalers in opleiding over moeten beschikken. In het Europese competentiemodel PETRA-E (2016) worden een vlotte omgang met tools en efficiënte zoekstrategieën als descriptoren van de heuristische competentie van de literair vertaler benoemd (zie ook ELV 2019). Voor het vertaalonderwijs is het van belang dat die omgang en die zoekstrategieën correct worden aangeleerd en op betrouwbare wijze worden getoetst, zodat er met vertrouwen kan worden gesteld dat exponenten van de vertaalopleiding ‘technologisch’ competent zijn.

Meer dan ooit wordt de urgentie gevoeld om onderzoek te doen naar technologie in relatie tot literaire vertaling. Met onze bescheiden bijdrage, in de vorm van een Filter-dossier, hopen wij inzicht te bieden in het onderzoek dat recent naar de relatie technologie-literaire vertaling is gedaan, zelf een bijdrage aan dat onderzoek te leveren en een aanzet te geven tot nieuw onderzoek.

Technologie: nieuwe mogelijkheden voor onderzoek naar literaire vertaling
Tegelijkertijd wordt het door de technologische vooruitgang ook mogelijk om het fenomeen vertaling op andere manieren te bestuderen. Wat de laatste jaren vooral opvalt, is dat er veel hypothesen zijn die al wat langer geleden door vertaaltheoretici en -wetenschappers zijn geponeerd die door de beschikbaarheid van handige nieuwe tools ineens onderzocht worden. 

Daarbij kunnen we denken aan meer cultuurgerelateerde theorieën, zoals de polysysteemtheorie. Binnen de polysysteemtheorie wordt aangenomen dat literatuur en cultuur geen statische begrippen zijn: wat literatuur is, hangt af van de tijd en ruimte waarin werken worden geproduceerd en ontvangen. Uiteindelijk wordt een cultuur gezien als een systeem van systemen waarbinnen culturele genres (en werken) zich op dynamische wijze tot elkaar verhouden. Hoewel deze theorie heel aannemelijk klinkt; is het in het verleden moeilijk geweest om kwantitatief materiaal te verwerken waarmee deze socio-culturele dynamiek kon worden aangetoond. De hedendaagse bibliometrie maakt het mogelijk om publicaties in kaart te brengen en zo tijd- en cultuurgebonden dynamiek binnen polysystemen in kaart te brengen. Binnen de polysysteemtheorie neemt vertaling ook een belangrijke plaats in. Volgens Even-Zohar bezet vertaling vaak een perifere positie in een literair-cultureel polysysteem. Binnen sommige culturen weet vertaling echter een centralere rol te bekleden. Dit is het geval:

(a) when a polysystem has not yet been crystallized, that is to say, when a literature is ‘young,’ in the process of being established; (b) when a literature is either ‘peripheral’ or ‘weak,’ or both; and (c) when there are turning points, crises, or literary vacuums in a literature (1978, p. 23).

Met bibliografische tools kan de centraliteit van vertaling binnen een cultuur goed in beeld worden gebracht: er kan worden gekeken naar de verhouding tussen de productie van vertaalde en niet-vertaalde teksten. Dit onderzoek krijgt meer diepgang als er ook een blik op vertaalstromen wordt gericht. Bibliografisch onderzoek kan bijvoorbeeld uitwijzen uit welke talen er in een cultuur vooral vertaald wordt. Bilbiometrie geeft ons bijvoorbeeld een genuanceerd beeld van de toenemende dominantie van vertalingen uit het Engels in het Nederlandse en Vlaamse literaire landschap. Bibliometrisch vertaalonderzoek kan natuurlijk ook worden toegepast op genres.

De polysysteemtheorie wordt vaak in een adem genoemd met de zogenaamde ‘Descriptive Translation Studies’. Er is in de loop van de jaren een flink aantal hypothesen geformuleerd rond de eigenschappen van vertalingen. Binnen de DTS werden de termen ‘translation universals’ of ‘translation laws’ vaak gebezigd (Baker 1993). Met omvangrijke corpora kan er worden nagaan of de ‘wetten’ van vereenvoudiging, explicitering, normalisering etc. binnen vertaling daadwerkelijk van kracht zijn (zie Zanettin 2014).

Dataminingtools en -methoden geven daarnaast een nieuwe impuls aan theorie over de stem en zichtbaarheid van de vertaler. In ‘Sprekend ’n vertaling’ schrijft Hermans dat ‘vertalingen [...] altijd meerstemmig zijn, instabiel, gedecentreerd; hybride’ (1997, p. 192). Kwalitatief onderzoek, waarin opvallende verschuivingen ten opzichte van de brontekst vaak een uitgangspunt vormen, kan methoden die in de Digital Humanities worden ingezet om stijl te kwantificeren (stilometrie) en auteurschap aan de hand van stilometrische eigenschappen te herkennen enorm worden verrijkt. Zo heeft vertaler Jan Rybicki (2012) met prachtige dendrogrammen laten zien dat de stem van een vertaler kan worden herkend en dat eenzelfde stemgeluid in verschillende vertalingen van dezelfde vertaler kan worden geregistreerd. Meerstemmigheid in vertaling wordt nog interessanter wanneer er meerdere vertalers aan een tekst hebben gewerkt, wanneer uitgevers hun stempel op de vertaling drukken of wanneer er in de vertaling een ‘mechanische’ stem weerklinkt (zoals in het geval van post-editing van machinevertalingen van literaire teksten). Stilometrisch onderzoek naar de zichtbaarheid en de stem van de vertaler is steeds populairder (Taivalkoski-Shilov 2019; Kenny & Winters 2020).

Ten slotte hebben ook de cognitiewetenschappen een stempel op de vertaalwetenschap gedrukt (zie Schwieter en Ferreira [red.] 2017). Een halve eeuw geleden werd er al geschreven over het vertaalproces dat zich grotendeels voltrekt in het hoofd van de vertaler (Holmes 1988: 72). De ‘zwarte doos’ geeft haar geheimen maar moeilijk prijs. Aanvankelijk probeerde men door middel van hardopdenk- en dialoogprotocollen meer te weten te komen over wat vertalers doen als ze vertalen (zie Kussmaul 1995, pp. 5-38). Inmiddels beschikken we over een keur aan tools waarmee processen kunnen worden vastgelegd en geanalyseerd. Wat te denken van screencastingtools, waarmee tijdens het vertaalproces opnames van het beeldscherm worden gemaakt, keystroke loggers, waarmee toetsaanslagen, cursorbewegingen en pauzes kunnen worden geregistreerd, en eye-trackers, waarmee oogbewegingen en pupilverwijding worden gemeten. Met deze snufjes en met vele anderen (EEG’s, fMRI-scanner) is er de laatste jaren een wonderbaarlijke wereld voor de vertaalwetenschapper ontsloten (zie ook: Saldanha en O’Brien 2013, p. 109-148). Hoewel cognitieve benaderingen van literaire vertalingen nog schaars zijn, lijkt het, zeker gezien een recente heropleving van onderzoek naar creativiteit, een kwestie van tijd voor literaire vertaling een brandpunt in procesonderzoek vormt.

Dossier: literaire vertaling en technologie
In dit Filter-dossier hebben we negen uiteenlopende bijdragen en een addendum gebundeld. We hebben geprobeerd om een zo rijk mogelijk aanbod aan teksten aan te bieden. Met dit aanbod hopen we het Nederlandstalige debat over technologie en literaire vertaling in de eerste plaats sterk te verrijken. Terecht stelt Philippe Noble dat vooral in de vertaalwereld zelf de plaat vaak blijft hangen en daardoor hetzelfde riedeltje herhaald wordt: ‘nooit en te nimmer [zal] een “machine” de literair vertaler kunnen vervangen’ (2019, p. 104). Maar we willen het debat niet alleen verrijken; met deze bijdragen willen we het ook aanzwengelen: de nieuwe ontwikkelingen kunnen, zoals Segers en Bloemen in dit dossier aangeven, de aansporing vormen tot een ‘diepgaande reflectie’.

In de eerste twee bijdragen wordt er aandacht besteed aan de onderzoeksperspectieven die dankzij nieuwe technologieën worden ontsloten. Jack McMartin en Luc Van Doorslaer tonen hoe de bibliometrie het mogelijk maakt om op basis van kwantitatieve data over boekpublicaties nieuwe inzichten op te doen over het mondiale publicatielandschap. De casussen die ze uitwerken gaan over vertaalstromen van werken uit het Nederlands en over de Translation Studies Bibliography, waarin vertaalwetenschappelijke publicaties worden opgenomen en geclassificeerd. In de tweede bijdrage verkennen Haidee Kotze en Gys-Walt van Egdom onbekend terrein in vertaalreceptieonderzoek. Zij hebben opgemerkt dat er online miljoenen reviews van vertaalde werken te vinden zijn, maar dat tot op heden niemand zich de moeite heeft getroost om die lekenrecensies te bestuderen. In een pilotonderzoek kijken ze naar de receptie van twee literaire werken in vertaling, Harry Potter and the philosopher’s stone en Het diner. Met de tekst willen ze vooral nagaan welke onderzoeksvragen er met al die miljoenen recensies zouden kunnen worden beantwoord.

In het tweede deel van dit dossier wordt er nadrukkelijker ingegaan op de rol van technologie in literair vertalen. In de eerste bijdrage van dit tweede luik bespreekt Joke Daems de resultaten van een onderzoek naar de houding van literair vertalers tegenover (vertaal)technologie en hun vertrouwdheid met technologie. Aan de hand van een enquête (die door 155 respondenten is ingevuld) wordt uitgezocht in welke mate literair vertalers op de hoogte zijn van recente ontwikkelingen in de vertaaltechnologie en wat volgens hen de belangrijkste redenen zijn om wel of niet gebruik te maken van deze technologie voor literair vertalen. Zoals eerder aangehaald in deze inleiding, kan dit soort onderzoek een aanzet geven tot de verdere ontwikkeling van vertaaltechnologie en kan het inzicht verschaffen in de specifieke aard van technologische competenties die in het vertaalonderwijs dienen te worden verworven

De bijdrage van Daems wordt gevolgd door drie bijdragen over machinevertaling. In het eerste artikel reflecteren Winibert Segers en Henri Bloemen op het afgrondelijke karakter van de ontwikkelingen in de vertaaltechnologie. De auteurs stellen dat de afgrond niet alleen beangstigend is, maar ook ontzagwekkend. De afgrond zet aan tot reflectie, overwegingen en heroverwegingen – onder andere tot een heroverweging van Benjamins desubjectivering in het licht van NMT. Ook Onno Kosters is ter ore gekomen dat NMT hoge toppen schijnt te scheren. Met veel aandacht gaat hij na hoe het bij dit product van de zoveelste kunstmatigeintelligentiegolf gesteld is met de CARE (Collobaration, Adaptivity, Responsibility en Explanation) van machinevertaling. In zijn experiment haalt hij een van zijn lievelingsauteurs, Barthelme, door drie vertaalmachines en probeert hij na te gaan of NMT nu daadwerkelijk meer is dan een veredeld hulpmiddeltje voor de menselijke vertaler. Margot Fonteyne en Rebecca Webster evalueren de kwaliteit van automatische vertalingen van vier klassiekers met behulp van automatische analyses. Hun evaluatie betreft niet uitsluitend een droge foutenanalyse; ze richten zich onder andere op lexicale rijkdom, tekstcohesie en ook op woordvolgorde.

Als vertaalmachines geen of nog geen uitkomst bieden, waar hebben vertalers dan wel baat bij? In de volgende drie bijdragen worden voorzichtige (deel)antwoorden op die vraag geformuleerd. Lisa Horenberg, een vertaalster met een dubbelprofiel, heeft in haar scriptie willen nagaan welke bestaande tools er onmiddellijk een meerwaarde voor de vertaler kunnen hebben. In haar artikel gaat ze vooral in op de wijze waarop Voyant Tools op een laagdrempelige manier tekstuele data presenteert en zo in een oogopslag inzicht verschaft in bepaalde structurele en stilistische eigenschappen van de literaire tekst, in haar geval Waughs ‘Mr Loveday’s Little Outing’. Chris Bakker en Pauline de Bok gooien het in hun bijdrage over een geheel andere boeg. Zij stellen vast dat er in deze tijden van duurzaamheid weinig wordt gedaan om de vertaalcultuur te behouden. Vertalingen verschijnen, worden in hun eigen tijd gelezen, maar verdwijnen vervolgens vaak in stoffige archieven en worden zelden tot nooit meer geraadpleegd. Dat is zonde van de enorme inspanningen die vertalers leveren. Daarom hebben ze de laatste jaren werk gemaakt aan een databank van literaire vertalingen (een collectief vertaalgeheugen), waarin de noeste arbeid van generaties vertalers zou kunnen worden opgeslagen. Het vertaalgeheugen is er, in de eerste plaats, ‘opdat wij niet vergeten’; maar het wordt ook zo opgebouwd dat het toekomstige vertalers van nut kan zijn. Het geheugen wordt doorzoekbaar gemaakt, opdat toekomstige generaties vertalers inspiratie kunnen opdoen bij hun voorgangers. Theo van der Ster stelt in de slotbijdrage misnoegd vast dat de vertaaltools die voorhanden zijn niet zijn afgestemd op de wensen van vertalers. Hij stelt in zijn artikel een conceptversie van Comtexxt voor, een plug-in met tal van functionaliteiten waarmee de vertaler, maar ook de schrijver en de redacteur op zijn wenken zou moeten worden bediend.

Literaire vertaling en technologie: bij wijze van conclusie
Met dit dossier hebben we een (naar onze bescheiden mening) fraai overzicht van onderzoeken gepresenteerd waarin literaire vertaling op technologie wordt betrokken. Bij wijze van besluit benadrukken we graag dat er nog talloze onderzoeksonderwerpen onbesproken zijn gebleven. Jammer genoeg hebben we geen bijdragen over procesregistratie bij literaire vertaling ontvangen. De beoordeling en evaluatie van technologische competenties hebben evenmin de aandacht gekregen die deze onderwerpen verdienen. De term ‘post-editing’ is ook minder aanwezig dan wellicht gehoopt. Een laatste thema dat we ook graag onder de aandacht van de lezer hadden gebracht, waren de randvoorwaarden voor een verantwoord of ‘fair’ gebruik van technologie (zie ook Taivalkoski-Shilov 2019a, Kenny, Moorkens en do Carmo 2020). Zelfs als het aantrekkelijk blijkt om machinevertaling of automatische suggesties op segmentniveau te gebruiken, dan nog is het met het oog op rechten niet vanzelfsprekend dat die teksten en tekstdelen klakkeloos kunnen worden overgenomen. Ten slotte is er het probleem van beloning: De Haan stelt in ‘Vertalen in de toekomst’ dat het niet geheel terecht is dat er wordt aangenomen dat vertaalprocessen dankzij de technologie sneller verlopen (2019). Door deze verkeerde aanname (die bij uitgeverijen kan heersen) bestaat de kans dat tarieven nog sterker onder druk komen te staan.

Referenties
ALPAC. 1966. Language and Machines: Computers in Translation and Linguistics—A Report by the Automatic Language Processing Advisory Committee. Washington: National Research Council.

Anastasiou, D. 2010. Idiom treatment experiments in machine translation. Newcastle: Cambridge Scholars.

Baker, M. 1993. ‘Corpus Linguistics and Translation Studies: Implications and Applications’, in: M. Baker, G. Francis en E. Tognini-Bonelli (red.) Text and Technology: In Honour of John Sinclair. Amsterdam: Benjamins, p. 233–250

Bar-Hillel, Y. 1960. ‘The present status of the automatic translation of languages’, in F. L. Alt (red.), Advances in Computers, dl. 1. New York: Academic Press, p. 92-164.

Besacier, L., en Schwartz, L. 2015. ‘Automated translation of a literary work: a pilot study’, in: Proceedings of the Fourth Workshop on Computational Linguistics for Literature. p. 114-122.

Bowker, L. en D. Fischer. 2010. ‘Computer-aided Translation’, in: Y Gambier en L. van Doorslaer, (red.), Handbook of Translation Studies, dl. 1. Amsterdam: Benjamins, p. 60-65. 

Castaño, M. A., Casacuberta, F. en E. Vidal. 1997. ‘Machine translation using neural networks and finite-state models’, http://www.mt-archive.info/TMI-1997-Castano.pdf [geraadpleegd op 14 december 2020].

ELV. 2019. VerTALEN voor de toekomst. Een nieuw vertaalpleidooi. Utrecht: ELV.

Even-Zohar, I. 1978. Papers in Historical Poetics. Tel Aviv: Porter Institute.

Forcada, M. en R. P. Ñeco. 1997. ‘Recursive hetero-associative memories for translation’, in: Biological and artificial computation: From neuroscience to technology. Berlijn: Springer, p. 453–462.

Forcada, M. 2010. ‘Machine Translation Today’, in: Y Gambier en L. van Doorslaer, (red.), Handbook of Translation Studies, dl. 1. Amsterdam: Benjamins, p. 215-223.

Forcada, M. 2017. Making sense of neural machine translation. Translation Spaces 6:2, 291-309.

Haan, M. de 2002a. ‘De vertaalmachine: Laten we de dingen beter maken’, Filter 9:1, 25-27.

Haan, M. de 2002b. ‘Trouwen doe je omdat je van elkaar houdt’, Filter 9:2, 55-58.

Haan, M. de 2002c. ‘De zoekgeraakte tijd’, Filter 9:3, 57-60.

Haan, M. de 2002d. ‘Groot nieuws voor de dichters’, Filter 9:4, 12-16.

Haan, M. de 2019. ‘Vertalen in de toekomst (bis)’, Filter 26:3, 47-48.

Hermans, T. 1997. ‘Sprekend ’n vertaling’, Filter 4:2, p 9-16.

Holmes, J.S. 1988. Translated! Papers on Literary Translation and Translation Studies. Amsterdam: Rodopi.

Hutchins, J. 1998. ‘The origins of the translator’s workstation’, Machine Translation 13:4, 287-307.

Josselson, H. H. 1971. ‘Automatic translation of languages since 1960: A linguist’s view’, Advances in Computers 11, 1-58. http://mt-archive.info/Josselson-1971.pdf [geraadpleegd op 14 december 2020].

Kay, M. 1980. ‘The proper place of men and machines in translation’, Machine Translation 12, 3-23.

Kenny, D., J. Moorkens en F. do Carmo 2020. ‘Fair MT: Towards ethical, sustainable machine translation’, Translation Spaces 9:1, 1-11.

Kenny, D. en M. Winters. 2020. ‘Machine translation, ethics and the literary translator’s voice’, Translation Spaces 9:1, 123-149.

Koehn, Ph. en R. Knowles. 2017. ‘Six challenges for Neural Machine Translation’. https://arxiv.org/pdf/1706.03872.pdf [geraadpleegd op 14 december 2020].

Koehn, Ph. 2010. Statistical Machine Translation. New York: Cambridge University.

Koehn, Ph. 2018. ‘Introduction to Neural Machine Translation’. https://www.youtube.com/watch?v=TtigmxA5gNQ [geraadpleegd op 14 december].

Koehn, Ph. 2020. Neural Machine Translation. New York: Cambridge University.

Melby, A. 1981. ‘Translators and machines: Can they cooperate?’, Meta 26:1, 23-34.

Melby, A. 1992. ‘The translator workstation’, in: J. Newton (red.), Computers in translation: a practical appraisal. London: Routledge, p. 147-165.

Moorkens, J., Toral, A., Castilho S. en A. Way. 2018. ‘Perceptions of Literary Post-editing using Statistical and Neural Machine Translation’, Translation Spaces 7:2, 240-262.

Noble, Ph. 2019. ‘Een flirt met DeepL, of een riskante relatie’, in: E van der Knaap & C. Koster (red.), Teksten in beweging. Over vertaling, vertalers en literatuur. Nijmegen: Vantilt, p. 104-108.

O’Brien, S. 2012. ‘Translation as Human-Computer Interaction’, Translation Spaces 1:1, 101–122.

Olohan, M. 2011. ‘Translators and translation technology: The dance of agency’, Translation Studies 4:3, 342–357.

PETRA-E [Plateforme Européenne pour la Traduction Littéraire - Education]. 2016. PETRA-E Europees referentiekader voor de opleiding en deskundigheidsbevordering van literair vertalers. https://petra-educationframework.eu/nl/ [geraadpleegd op 26 oktober 2019].

Poibeau, T. 2017. Machine translation. London: MIT.

Pym, A. 2013. ‘Translation Skill-Sets in a Machine-Translation Age’, Meta 58:3, 487-503.

Rothwell, A. and Youdale, R. ter perse. ‘Computer-Assisted Translation (CAT) tools, translation memory and literary translation’, in: S. Deane-Cox en A. Spiessens (red.) The Routledge Handbook of Translation and Memory. London and New York: Routledge.

Ruffo, P. 2018. ‘Human-Computer Interaction in Translation: Literary Translators on Technology and Their Roles’, in: Proceedings of the 40th Conference Translating and the Computer, Londen, Verenigd Koninkrijk, p. 127–131.

Rybicki, J. 2012. ‘The great mystery of the (almost) invisible translator: Stylometry in translation’, in: M.P. Oakes en M. Ji (red.), Quantitative methods in corpus-based Translation Studies: A practical guide to descriptive translation research. Amsterdam: John Benjamins, p. 231-48.

Saldanha, G. en S. O’Brien. 2013. Research methodologies in Translation Studies. London: Routledge.

Segers, W., Van Egdom, G.W. en H. Bloemen. 2018. ‘Pijnpunten’, Webfilter, dossier ‘Getuigenis en vertaling’. https://www.tijdschrift-filter.nl/webfilter/dossier/getuigenis-en-vertaling/2018-1/pijnpunten/.

Schwieter, J.W. en A. Ferreira. 2017. The Handbook of Translation and Cognition. Hoboken: Wiley Blackwell.

Taivalkoski-Shilov, K. 2019a. ‘Ethical issues regarding machine(-assisted) translation of literary texts’, Perspectives 27:5, 689-703.

Toral, A. en A. Way. 2014. ‘Is machine translation ready for literature?’, Translating and the Computer 36, 174-176.

Toral, A. en A. Way. 2015a. ‘Translating literary text between related languages using SMT’, in: Proceedings of the Fourth Workshop on Computational Linguistics for Literature, NAACL. Denver, p. 123–132.

Toral, A. en A. Way. 2015b. ‘Machine-assisted translation of literary text: A case study’, Translation Spaces 4:2, 240-267.

Toral A. en A Way. 2018. ‘What Level of Quality Can Neural Machine Translation Attain on Literary Text?’, in: J. Moorkens, S. Castilho, F. Gaspari, & S. Doherty (Eds.), Translation Quality Assessment. Machine Translation: Technologies and Applications, vol 1. Springer: Cham, p. 263-287.

Toral, A., Wieling, M. en A. Way. 2018. ‘Post-editing effort of a novel with statistical and neural machine translation’, Frontiers in Digital Humanities 5:9, 1-11.

Van de Cruys; T. 2019. ‘La génération automatique de poésie en français’, Actes de la Conférence sur le Traitement Automatique des Langues Naturelles (TALN) PFIA 2019, dl. I p. 113-126.

Van de Cruys, T. 2020. ‘Articuler ou trahir: La poésie des machines à traduire’. http://timvandecruys.be/media/presentations/pres_tradlit_070220.pdf [Geraadpleegd op 14 december 2020].

Van Egdom, G.W., Bloemen, H. en W. Segers. 2017. ‘Machinevertaling, singularity en Prometheïsche Scham’, Filter 24:2, 19-26.

Wagner, E. 1985. ‘Rapid post-editing of SYSTRAN’, in: V. Lawson (red.), Tools for the Trade. London: Aslib, p. 199-214.

Wilks, Y. 1992. ‘SYSTRAN: It obviously works, but how much can it be improved?’, in J. Newton (red.), Computers and Translation: A Practical Appraisal, London: Routledge, p. 166-188. 

Wu, Yonghui et al. 2016. ‘Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation’, https://arxiv.org/pdf/1609.08144v2.pdf [Geraadpleegd op 14 december 2014]

Youdale, R. 2019. Using computers in the translation of literary style: Challenges and opportunities. London: Routledge.

Zanettin. F. 2014. ‘Corpora in translation’, in: J. House (red.), Translation: A multidisciplinary approach. New York: Palgrave Macmillan, p. 178-199.

 

Joke Daems is postdoctoraal onderzoeker bij de vakgroep Vertalen, Tolken en Communicatie aan de Universiteit Gent. Als lid van de onderzoeksgroep LT³ (Language and Translation Technology Team) voert ze onderzoek naar de impact van vertaaltechnologie en naar de interactie tussen vertaler en vertaalomgeving.

Gys-Walt van Egdom doceert vertalen en vertaalwetenschap aan de Universiteit Utrecht.

 

Reageren? info@tijdschrift-filter.nl.