Estudios en homenaje a Alfredo Matus Olivier. Volumen II

– 909 – Algunos datos lexicográficos y de corpus para la representación… • Irene Renau propone una metodología de análisis de corpus para sustantivos con sentido locativo, sometidos a varios tipos de polisemia regular. Los contextos de corpus se anotan manualmente, según el hiperónimo que se asocia a cada significado encontrado (dejando de lado los casos de copredicación y ambigüedad), por ejemplo, edificio / lugar, conjunto de plantas / área, etc. Finalmente, se propone una clasificación de los resultados. La clasificación de Berri (2014) es un ejemplo de datos de polisemia regular obtenidos a partir de datos de corpus, y en ella se observa mayor precisión que en clasificaciones que se han obtenido por la introspección del autor o de fuentes indirectas, como bases de datos léxicas o diccionarios. Por su lado, la tesis de Martínez Alonso (2013) se interesa por tipos de anotación de corpus, manual y automática, de algunas clases de polisemia regular en español, inglés y danés. El autor indica que la anotación humana no experta del tipo Mechanical Turk no logra identificar lo suficiente el tipo subespecificado (ej. carne sobre animal), lo que sí logran los anotadores voluntarios fuera del esquema Mechanical Turk. Aun así, incluso en este caso hay tipos de polisemia regular que obtienen puntajes bajos también en los voluntarios. Todo ello indica la dificultad de identificar ambos tipos semánticos en un contexto de uso específico. En la misma línea de estudios basados en corpus, la tesis de Ramírez (2020) hace un análisis de corpus de neologismos con polisemia regular del tipo acción/ efecto, para observar la productividad de este tipo complejo en las palabras nuevas. Los resultados del análisis de unas 3.000 concordancias advierten que el significado de efecto aparece en porcentajes muy desiguales en las muestras estudiadas y, por tanto, ello dificulta la detección automática de estos significados y permite observar que la polisemia regular en el uso de la lengua tiene que verificarse unidad por unidad y no darse por sentada, pese a que el mecanismo de polisemia es el mismo en todas. El estudio de Kostina (2011) emplea un corpus terminológico en español y muestra que la polisemia regular es un recurso del lenguaje especializado para expresar la variación conceptual. El trabajo de Cerda (2019) analiza la polisemia regular del tipo marca/producto en un corpus de español americano, y la coocurrencia de los sustantivos que muestran esta polisemia con otras unidades del contexto de aparición. La autora muestra irregularidad en la aparición de los dos significados en el corpus, así como el hecho de que ciertos sustantivos, adjetivos y verbos que coocurren con los sustantivos analizados contribuyen a desambiguar la unidad léxica con polisemia regular. Como puede verse, los estudios sobre polisemia regular que emplean datos reales son escasos tanto en español como en otras lenguas. Ello da pie a la incertidumbre acerca de qué tipos de polisemia regular existen en una lengua, cómo se articula la polisemia regular con otros mecanismos generadores de significado (como la metáfora), cómo se analiza la polisemia regular en relación con su contexto de aparición o si existen grados de lexicalización de la polisemia regular, entre otros problemas.

RkJQdWJsaXNoZXIy Mzc3MTg=