City of New Brunswick, Estados Unidos
Este artículo presenta un estudio basado en encuestas sobre las reacciones de los traductores profesionales de EE. UU. hacia la percepción de “control” y “autonomía” en relación con las tecnologías de traducción. En los paradigmas de Inteligencia Artificial Centrada en Humanos (HCAI) y de “aumento de la inteligencia”, los humanos conservan los niveles más altos posibles de control y autonomía junto con altos niveles de automatización. El fundamento de este estudio radica en que el ciclo de adopción de tecnologías de traducción normalmente implica la adaptación humana a herramientas previamente desarrolladas sin su participación, lo que frecuentemente conduce a una cierta resistencia a la adopción y reacciones negativas o divergentes. Ahora que la integración de aplicaciones de IA aún se encuentra en las primeras etapas de desarrollo y adopción, es crucial identificar las necesidades y reacciones de los usuarios para desarrollar herramientas que los profesionales puedan adoptar fácilmente y sobre las cuales sientan un alto grado de control. Metodológicamente, el estudio se llevó a cabo mediante una encuesta en línea autoadministrada con la plataforma Qualtrics, respondida por 41 traductores radicados en EE. UU. en mayo de 2024. Los niveles autodeclarados de control y autonomía son, en general, altos, mientras que los encuestados reportaron niveles medios de imposición de uso de tecnologías por agentes externos. El uso de IA generativa sigue siendo bajo, con un 0 % de los encuestados indicando que se ven obligados a usar IA o LLMs, en línea con otros estudios recientes. Sin embargo, las expectativas futuras de control en la era de la IA disminuyeron de manera drástica, aunque esta pérdida percibida de control se atribuyó a agentes humanos en el proceso (grandes empresas tecnológicas, desarrolladores, LSP, gestores de proyectos, clientes, etc.) más que a las aplicaciones o algoritmos de IA. Estos bajos niveles de sensación de agencia de cara al futuro coinciden con estudios recientes que sugieren que la explotación mediante el “taylorismo digital” por parte de agentes humanos podría percibirse como una amenaza mayor que la IA o las tecnologías de traducción en sí mismas.
Aquest article presenta un estudi basat en enquestes sobre les reaccions dels traductors professionals dels EUA cap a la percepció de “control” i “autonomia” en relació amb les tecnologies de traducció. En els paradigmes d’Inteligència Artificial Centrada en Humans (HCAI) i d’“augment de la inteligència”, els humans conserven els nivels més alts possibles de control i autonomia juntament amb alts nivells d’automatització. El fonament d’aquest estudi rau en el fet que el cicle d’adopció de tecnologies de traducció normalment implica l’adaptació humana a eines prèviament desenvolupades sense la seva participació, la qual cosa freqüentment condueix a una certa resistència a l’adopció i reaccions negatives o divergents. Ara que la integració d’aplicacions d’IA encara es troba en les primeres etapes de desenvolupament i adopció, és crucial identificar les necessitats i reaccions dels usuaris per desenvolupar eines que els professionals puguin adoptar fàcilment i sobre les quals sentin un grau elevat de control. Metodològicament, l’estudi s’ha portat a terme per mitjà d’una enquesta en línia autoadministrada amb la plataforma Qualtrics, que han contestat 41 traductors establerts als EUA el maig de 2024. Els nivells autodeclarats de control i autonomia són, en general, alts, mentre que els enquestats han reportat nivells intermitjos d’imposició de l’ús de tecnologies per agents externs. L’ús d’IA generativa continua sent baix, amb un 0 % dels enquestats indicant que es veuen obligats a utilitzar IA o LLM, en línia amb altres estudis recents. Així i tot, les expectatives futures de control en l’era de la IA han disminuït de manera dràstica, tot i que aquesta pèrdua percebuda de control s’ha atribuït a agents humans en el procés (grans empreses tecnològiques, desenvolupadors, LSP, gestors de projectes, clients, etc.) més que a les aplicacions o algoritmes d’IA. Aquests baixos nivells de sensació d’agència de cara al futur coincideixen amb estudis recents que suggereixen que l’explotació per mitjà del “taylorisme digital” per part d’agents humans podria percebre’s com una amenaça major que la IA o les tecnologies de traducció en si mateixes.
This paper presents a survey study on attitudes of US professional translators towards self-perceived “control” and “autonomy” regarding translation technologies. In the human-centred AI (HCAI) and “intelligence augmentation” paradigms, humans retain the highest possible levels of control and autonomy alongside high levels of automation. The rationale for this study is that the cycle of translation technology adoption normally implies human adaptation to technologies that have been previously developed without their input. This often leads to resistance to adoption and negative or divergent attitudes. Now that AI app integration is still at the early stages of development and adoption, it is of utmost importance to identify users’ needs and attitudes to develop tools that professionals can easily adopt and feel in control of. Methodologically, the study involved a self-administered online Qualtrics survey that was completed by 41 US-based translators in May 2024. The self-reported levels of control and autonomy are generally high, while subjects reported medium levels of forced technology use by external agents. The use of generative AI remains low, with 0% of respondents indicating being forced to use AI or LLMs, in line with other recent studies. Future expectations of control in the AI era declined dramatically, but this perceived loss of control in the AI era was attributed to human agents in the process rather than AI apps or algorithms (big tech, developers, LSPs, project managers, clients, etc.). These low levels of sense of agency in the future correspond with recent studies that find that exploitation through “digital Taylorism” by other human agents might be perceived as more of a threat than AI or translation technologies themselves.