1. INTRODUCCIÓN1
La prensa de calidad2 (Russ-Mohl, 2008) ha llevado tradicionalmente a gala la buena prosa de sus artículos editoriales. Estos textos, libres de muchas de las constricciones impuestas por el espacio o la inmediatez de piezas periodísticas de otros géneros, han desarrollado un estilo minuciosamente elaborado, con aspiraciones que trascienden la mera transmisión del parecer de la cabecera, con vocación de convertirse en la insignia del periódico y contribuir a su buena reputación, de la cual depende en buena medida la fuerza para crear opinión. En efecto, los periódicos de calidad no confían sus editoriales solo a la argumentación de posturas más o menos bien fundadas, sino que las envuelven en un cuidado lenguaje, capaz incluso de conferir mérito literario al texto. En consecuencia, este género de artículos suele diferir del lenguaje coloquial, pero también del lenguaje empleado en otro tipo de texto, incluso de aquellos que se hallan página con página con el propio editorial. Aparte de estas propiedades discursivas, estos artículos presentan otra característica que hace de ellos un caso singular: la atribución de su autoría. No es una persona individual quien firma el editorial sino que es el periódico de forma colectiva –y su director en último término quien asume la responsabilidad del texto. Así, pues, mientras que otros tipos de texto son trabajo de un autor y, por lo tanto, tomados individualmente, sus cualidades solo son atribuibles a la pluma que los firma, cada editorial, por el contrario, es por sí mismo un indicador cualitativo de la tónica de la publicación.
Una medida que ofrece una descripción razonable de estos artículos es su complejidad léxica. Para ella, la lingüística computacional proporciona los medios para tomar mediciones objetivas de acuerdo a diferentes criterios. Laufer y Nation (1995) proponen como indicadores de la complejidad léxica la originalidad, la densidad, la sofisticación y la diversidad. Este estudio se basa en dos de estas magnitudes: la diversidad, que alude al ratio de palabras diferentes respecto al número total, y la sofisticación, o la frecuencia relativa de elecciones léxicas inusuales.
Los resultados presentados en este artículo pretenden arrojar luz sobre la situación de la prensa de calidad en España, determinando si los artículos editoriales de las publicaciones estudiadas presentan una complejidad léxica equivalente. Este propósito se alcanza mediante el análisis del estudio de la diversidad y sofisticación léxica de los artículos editoriales publicados en 2019 en cuatro periódicos generalistas de calidad para responder a las siguientes preguntas:
- ¿Presenta la muestra de artículos editoriales seleccionada una sofisticación léxica análoga?
- ¿Tienen los artículos editoriales una diversidad léxica equivalente?
- ¿Existe una relación entre la difusión del periódico y la complejidad léxica de sus editoriales?
2. MÉTODOS Y MATERIALES
2.1. Sofisticación léxica
La sofisticación léxica es un concepto que se refiere a las elecciones de vocablos inusuales, que suele redundar positivamente en la precisión del texto. La lingüística computacional provee una solución para calcular este valor mediante la comparación de las palabras del texto con su frecuencia relativa en un corpus. Este trabajo se vale de este método, considerando sofisticados aquellos términos no incluidos entre las 2000 palabras léxicas más frecuentes, un margen convencional propuesto por Laufer y Nation (1995). Las palabras léxicas comprenden adjetivos, sustantivos, adverbios y verbos plenos, por contraposición a palabras funcionales, con menor carga semántica intrínseca, tales como preposiciones, pronombres, conjunciones o verbos auxiliares, empleadas para expresar relaciones gramaticales entre las otras palabras de la oración.
Para incrementar la precisión, se lematizaron los textos con el objetivo de prevenir la clasificación de diferentes formas flexivas del mismo lema como tipos distintos. De esta manera, diferentes formas de un lema son consideradas tokens de un mismo tipo a pesar de variar en sus accidentes morfológicos. Asimismo, se anotó la función gramatical de las palabras del texto (PoS-tagging), de forma que el análisis discrimina entre tokens homógrafos de diferentes tipos. Por último, se aplicó una corrección al algoritmo para tratar los nombres propios.
Las medidas empleadas producen aproximaciones razonables para el rango de tamaños textuales en el que se encuentran los textos analizados. Estas medidas son Lexical Sophistication-I o LS1 (Linnarud, 1986), que mide el ratio de tokens léxicos sofisticados y el número total de tokens léxicos y un indicador robusto en condiciones de heterogeneidad de tamaños textuales, Corrected Verb Sophistication-I o CVS1 (Wolfe-Quintero, Inagaki & Kim, 1998), que representa el ratio de tipos verbales sofisticados y la raíz cuadrada del doble del número total de tokens verbales.
2.2. Diversidad léxica
La diversidad léxica en su forma más elemental se corresponde con el ratio de tokens y tipos, que es lo que representa el marcador Type-Token Ratio o TTR (Templin, 1957). Desafortunadamente, el valor de esta medida decrece a medida que aumenta el tamaño del texto, con independencia de sus características (Lu et al., 2014, p. 101), lo que hace de TTR una medida poco adecuada para comparar textos de tamaños heterogéneos. A la vista de esto, McCarthy y Jarvis (2007) sugieren emplear indicadores robustos como Measure of Textual Lexical Diversity o MTLD (McCarthy, 2005), Hypergeometric Distribution D o HD-D (McCarthy & Jarvis, 2007) y MAAS (Maas, 1972), o incluso combinarlos para obtener una representación más completa (McCarthy & Jarvis, 2010, p. 391). Tomando en cuenta esta recomendación, este trabajo hace uso de las tres medidas robustas mencionadas.
Estos indicadores son modelos sofisticados para calcular la misma idea subyacente en TTR, la relación entre tokens y tipos. MAAS ajusta el valor de TTR de acuerdo a una curva logarítmica. Este índice presenta una correlación inversa con la diversidad léxica, esto es, su valor decrece si la diversidad se incrementa, lo que ha de tenerse en consideración a la hora de interpretar los resultados. HD-D es una idealización del índice D (MacWhinney, 2000), que toma muestras aleatorias sin restitución de tokens para calcular la probabilidad de nuevo vocabulario en nuevas muestras de tamaño incremental. Esto produce un modelo matemático de la variación de TTR de acuerdo al tamaño de la muestra, y D es el resultado de comparar ese modelo con los datos empíricos. HD-D mide la suma de probabilidades (P) de encontrar alguno de los tokens {A..K} del texto en una muestra aleatoria de n palabras del propio texto para cada uno de los tipos. Para hacer los cálculos se utilizó un tamaño de muestra n=42, que es el valor medio entre 35 y 50 usado para calcular el índice D. MTLD representa la longitud media de series secuenciales de tokens en un texto con un valor TTR por encima de un valor límite dado. Cuando el valor TTR cae por debajo de ese umbral, se incrementa el contador del factor F una unidad, y se pasa a la siguiente cadena, que es evaluada de la misma manera. En tanto que el texto pocas veces termina con un factor completo, los tokens del factor remanente se evalúan contando la proporción entre 1,0 y el factor completo (McCarthy & Jarvis, 2010, p. 384).
2.3. Corpus
Se han considerado los artículos editoriales de la edición digital de cuatro periódicos generalistas tomadas de entre las diez publicaciones con más difusión diaria en 2019. Los cuatro casos observados cubren alrededor del 70% de la suma total de lectores de los diez periódicos generalistas más difundidos. Para las estimaciones de audiencia, se consideraron las mediciones del Estudio General de Medios (Asociación para la Investigación de Medios de Comunicación, 2019).
Publicación |
Miles de lectores |
Porcentaje (información general) |
Porcentaje (total) |
Marca* |
1672 |
- |
15,854 |
El País |
1013 |
14,029 |
9,606 |
As* |
772 |
- |
7,32 |
El Mundo |
671 |
9,292 |
6,363 |
La Vanguardia |
549 |
7,603 |
5,206 |
La voz de Galicia |
514 |
7,118 |
4,874 |
Abc |
460 |
6,37 |
4,362 |
Mundo Deportivo* |
387 |
- |
3,67 |
Sport* |
363 |
- |
3,442 |
El Periódico |
361 |
4,999 |
3,423 |
Otros información general |
3653 |
50,886 |
34,639 |
Otros |
131 |
- |
1,242 |
Total (información general) |
7221 |
100 |
68,471 |
Total |
10546 |
- |
100 |
* Temático |
|
|
|
En atención a estos criterios, y atendiendo también a razones técnicas, se analizaron Abc, El Mundo, El País y la edición global de El Periódico, ya que solo estos diarios aseguraban la disponibilidad de las muestras. Dicho de otra manera, no todas las publicaciones ofrecen acceso a su archivo de contenidos, o lo hacen de forma tal que se dificulta la toma de muestras. A falta de una alternativa viable, este trabajo hubo de limitarse a aquellos periódicos que brindan la posibilidad de recuperar artículos editoriales de días pasados en su web. De acuerdo a esto, el corpus está compuesto de los artículos mostrados en tabla 2.
El número de observaciones sugiere que el tamaño de la muestra no influye en la distribución de las medidas de centralidad. En cualquier caso, los resultados se han obtenido usando equivalentes robustos a pruebas ANOVA3 que no se ven afectados por la heterogeneidad de los tamaños de las muestras y no presumen linealidad. Así pues, los datos no se optimizaron para mejorar el ajuste.
Publicación |
Artículos |
Días publicado |
Número de tokens |
||||||
X media |
σ |
0% |
25% |
50% |
75% |
100% |
|||
Abc |
704 |
354 |
394,741 |
125,319 |
117 |
297 |
419,5 |
467 |
2114 |
El Mundo |
758 |
315 |
356,16 |
147,061 |
114 |
211 |
360 |
472 |
1239 |
El País |
718 |
362 |
497,138 |
90,066 |
306 |
442,25 |
493,5 |
548,75 |
932 |
El Periódico |
665 |
336 |
362,129 |
105,82 |
218 |
256 |
374 |
415 |
760 |
Total |
2845 |
365 |
402,681 |
132,391 |
114 |
292 |
426 |
479 |
2114 |
A primera vista, El País publicó artículos editoriales de manera más regular, haciéndolo prácticamente a diario. Le siguen Abc y El Periódico, mientras que El Mundo se encuentra en el extremo opuesto pues, a pesar de ser el más prolífico considerando el volumen total de artículos, hizo las publicaciones de forma más esporádica, lo que compensó llegando a sacar hasta cinco textos al día en varias ocasiones. Este fenómeno puede atribuirse en parte a que se fecharon los artículos de acuerdo a los metadatos y no a la ubicación temporal mostrada en la web.
Por consiguiente, los scrapers –esto es, los programas utilizados para inspeccionar el código HTML de las páginas, extraer e interpretar sus elementos– pudieron asignar una fecha diferente a del listado si la página se creó en una fecha anterior a la de la publicación. Del mismo modo, no se recuperaron artículos producidos en 2018 listados en el 1 de enero de 2019 pero sí otros listados en 2020 compuestos en 2019. En cualquier caso, el estudio no considera la fecha salvo para limitar el muestreo, por lo que un margen de unos días es aceptable, lo que corroboran las gráficas de dispersión, que no sugieren tendencia alguna. Por otra parte, esta aproximación permite tomar directamente múltiples artículos diarios sin necesidad de homogeneizar los datos.
Un examen más de cerca de los textos revela detalles interesantes. Un simple conteo de palabras muestra que, en promedio, El País produjo los artículos más extensos, mientras que El Mundo publicó los más breves. El rango de tokens más amplio corresponde a Abc, con 117 y 2144, seguido de El Mundo, que también registra el mínimo absoluto, con 114 tokens y la extensión más variable de acuerdo a la desviación estándar. El Periódico se ubica dentro de los rangos de los otros tres, con el máximo más bajo y el mínimo más alto tras El País, por encima de Abc y El Mundo. La desviación estándar más baja la tiene El País.
2.4. Recolección de datos
Los datos se tomaron de las páginas web de los periódicos empleando scrapers programados específicamente para la tarea. Todos los programas parten de un concepto subyacente común: el scraper escudriña la portada de la sección de Opinión en busca de enlaces a los artículos editoriales y analiza a continuación las páginas a las que apuntan esos enlaces. Esta operación se repite con la siguiente página del sumario de artículos editoriales hasta alcanzar un número dado de repeticiones. Sin embargo, debido a la organización de cada periódico, se necesitó ajustar el código de forma individual con modificaciones más o menos complejas dependiendo del caso.
Recuperar artículos de El País resultó relativamente sencillo, pues el código HTML de sus páginas se ciñe a una estructura prefijada regular y consistente. Por el contrario, la página web de El Mundo cambió sus plantillas a lo largo de 2019 en numerosas ocasiones, incluso varias veces en un mismo mes, lo que hizo inviable aplicar un solo modelo. En su lugar, se hicieron varias pruebas para identificar los cambios y el momento en los que estos tienen lugar para añadir ajustes individualizados al scraper. Abc, a pesar de ser consistente, presentó una dificultad diferente por requerir una cuenta registrada para acceder al contenido completo de algunos artículos, lo que se ve reflejado en el código. Estos cambios no afectan sustancialmente a los algoritmos de selección de páginas y procesamiento del texto pero ralentizaron la recuperación de las páginas de forma sustancial. Por último, las páginas web de El Periódico presentan una estructura consistente con un código HTML claro y homogéneo que facilitó las primeras pruebas sobremanera. Sin embargo, su sitio web añadió una función de avance de página automático en el último trimestre de 2019, lo que demandó una reescritura no trivial del código del scraper para incluir la capacidad de recuperación dinámica de las páginas.
2.5. Preparación de los datos
En primer lugar, se inspeccionaron los archivos recuperados en busca de artefactos tales como errores sintácticos en el HTML del código fuente de la página para corregirlos a mano. Solo se registró una instancia de código HTML mal formado (Derrota en dos tiempos, 2019), aunque numerosos editoriales de El Periódico mostraban caracteres no imprimibles que hubo que eliminar manualmente para impedir su interpretación como tokens. Segundo, para facilitar la tokenización, se corrigieron los errores de puntuación más habituales y erratas tipográficas, tales como la falta de espacio después de punto mediante búsqueda y sustitución con expresiones regulares. Por ejemplo, las instancias del tipo palabra1.palabra2 se reescribieron como palabra1._Palabra2 para que el tokenizador reconociera dos palabras, mientras que acrónimos del tipo AA.BB se dejaron sin cambios por constituir una sola entidad.
Además de la lematización mencionada, las muestras se anotaron con un PoS-tagger. Ambas tareas se llevaron a cabo con el paquete Stanford CoreNLP (Manning et al., 2014), un conjunto de herramientas de procesamiento del lenguaje natural de última generación. Además de los anotadores, el paquete provee otras facilidades auxiliares para integrarlo en otros lenguajes de programación, como la librería StanfordNLP (Qi et al., 2018), que permitió su uso en el código Python usado en este estudio. Se empleó un pipeline con los siguientes anotadores: tokenizador, expansor de tokens multipalabra, PoS-tagger y lematizador. Asimismo, se tradujeron las etiquetas producidas por el anotador de Stanford Core NLP en notación PENN Treebank, organizando la salida en forma lema PoS.
Se usó el último modelo de lengua española preentrenado UD Spanish AnCora 2.0 (Martínez Alonso y Zeman, 2016) facilitado por StanfordNLP. Este modelo tiene un rendimiento de 98,7 en las pruebas CoNLL Shared Task, 2018 (SIGNLL, 2018) para PoS-tagging y 98,08 para lematización de acuerdo al Stanford NLP Group (2018).
Después de la anotación manual, se hizo una inspección visual de los archivos en busca de etiquetas incorrectamente asignadas. Algunas instancias de etiquetas al final del texto se corrigieron, así como otros errores, consecuencia de errores tipográficos del periódico, tales como el uso de un guion donde corresponde una raya en Abc, El Mundo y El Periódico, que produce un token etiquetado del tipo -palabra_None en lugar de dos tokens como —_— palabra_PoS, un fallo tipográfico que se da en todos los periódicos de la muestra salvo en El País.
2.6. Instrumentos
Los valores de HD-D, MTLD y MAAS se calcularon empleando una versión modificada de la librería lexicalrichness (Shen Yan Shun, 2018). No obstante, esta requirió un ajuste para deshabilitar el tokenizador incluido, pues, al contrario que el de Stanford NLP, producía inconsistencias como ignorar guarismos. Las rutinas resultantes se integraron en el código de Lexical Complexity Analyzer de Lu (2012). Sin embargo, este requirió también ajustes para adecuarlo al español. El programa de Lu está orientado al inglés, lo que redunda en la manera en que procesa los textos a diferentes niveles. Por un lado, los sufijos adverbiales, verbos auxiliares y puntuación difieren del español. Por otro lado, el diccionario de frecuencias con el que el programa compara el texto no se ajusta a los valores de la lengua castellana.
Para resolver el problema idiomático, se adaptaron las rutinas que afectaban a elementos específicos del lenguaje y se añadieron los signos de puntuación del español tales como comillas angulares o signos de apertura de interrogación y exclamación. En cuanto a las frecuencias, se resolvió acudiendo a CORPES XXI (Real Academia Española, 2018), un corpus anotado y lematizado de libre acceso que comprende más de 286 millones de formas. Sin embargo, el corpus requirió algunos ajustes previos. Por un lado, tuvo que ser tabulado de acuerdo a las columnas esperadas por el programa de Lu y, por otro lado, necesitó ser reetiquetado traduciendo las etiquetas a la nomenclatura PENN Treebank.
Asimismo, se hizo necesaria una última modificación de orden semántico. En tanto que los nombres propios son ítems léxicos y, por lo tanto, tienen efecto en todos los resultados, no es una cuestión trivial. Algunos autores optan por su exclusión para evitar la representación incorrecta de la sofisticación de los textos (David et al., 2009, p. 150), mientras que otros prefieren incluirlos pues, en sentido estricto, tienen contenido léxico completo al contrario que palabras funcionales como pronombres (Malvern et al., 2004, p. 142; David et al., 2009, p. 7).
Los textos se analizaron considerando el término medio en atención a que los nombres propios son parte integral del discurso periodístico, incluso si, por su aparición en los medios de comunicación masivos pasan a ser, por definición, de uso común desde que son noticia. A consecuencia de esto, en lugar de obviar por completo los nombres propios, los tokens correspondientes a estos son considerados como palabras léxicas junto a los nombres comunes, pero excluyéndolos de la cuenta de palabras sofisticadas.
Los valores así obtenidos se organizan en una tabla en formato CSV que es procesada con R para llevar a cabo los cálculos estadísticos. Estos cálculos incluyen análisis de la varianza usando el paquete MANOVA.RM (Friedrich, Konietschke & Pauly, 2019). Este paquete proporciona una alternativa no paramétrica a la prueba MANOVA, modified ANOVA-type statistic (MATS), que no asume términos de error normales, homogeneidad del tamaño muestral ni homocedasticidad (Bathke et al., 2018; Friedrich & Pauly, 2017; Konietschke et al., 2015). En tanto que esta prueba puede manejar tamaños muestrales heterogéneos, no requiere correcciones de la estadística ni de la muestra.
2.7. Limitaciones
En primer lugar, este trabajo se refiere exclusivamente a la situación de 2019 y, en tanto que es un estudio observacional, no puede inferirse causalidad a partir de él. Segundo, solo se ha analizado una selección de periódicos. Este artículo es el resultado de un estudio casuístico que representa la situación de un subconjunto de todas las cabeceras españolas. Existen otros periódicos de gran difusión cuyos artículos editoriales podrían presentar características diferentes a los estudiados en este trabajo.
Tercero, los resultados incumben solo a los artículos editoriales. Algunos géneros periodísticos, como las noticias, tienden a ser más sucintos, mientras que otros, como las columnas de opinión, pueden estar firmados por prestigiosas plumas. De esta manera, si bien los resultados son atribuibles al periódico, pueden no corresponderse con los valores medios de la publicación. Cuarto, la anotación de partes del discurso tiene la precisión indicada arriba.
Finalmente, más una prevención que una limitación, los indicadores empleados miden la complejidad léxica y la analizan mediante cálculos estadísticos de diferentes constructos. Su representatividad de la calidad del texto está sujeta a discusión. Esto es, por lo general, un texto preciso implica diversidad léxica, pero lo opuesto no es necesariamente cierto. Al contrario, figuras retóricas de repetición típicas de otros géneros textuales como las anáforas reducirían el índice de diversidad léxica de acuerdo a estos indicadores, que no considerarían el efecto estético buscado.
3. RESULTADOS
3.1. Sofisticación léxica
De acuerdo a los datos mostrados en tabla 3, El Mundo presenta los valores de sofisticación léxica más altos. Sin embargo, Abc supera a El País en su LS1, mientras que sucede lo contrario con CVS1. El Periódico se asemeja a El País en lo concerniente a LS1, pero queda detrás de los otros tres en CVS1, donde el primer cuartil queda casi al mismo nivel de la mediana del inmediatamente anterior. Para averiguar si esas diferencias se hizo una prueba RM MANOVA unidireccional con el periódico como variable independiente y los índices de sofisticación léxica LS1 y CVS1.
Publicación |
0% |
25% |
50% |
75% |
100% |
xmedia |
||||||
LS1 |
CVS1 |
LS1 |
CVS1 |
LS1 |
CVS1 |
LS1 |
CVS1 |
LS1 |
CVS1 |
LS1 |
CVS1 |
|
Abc |
0,195 |
0,289 |
0,304 |
0,905 |
0,338 |
1,162 |
0,373 |
1,443 |
0,526 |
2,67 |
0,34 |
1,196 |
El Mundo |
0,202 |
0 |
0,316 |
0,935 |
0,352 |
1,251 |
0,384 |
1,584 |
0,515 |
3,064 |
0,351 |
1,272 |
El País |
0,193 |
0,134 |
0,292 |
0,982 |
0,325 |
1,268 |
0,355 |
1,554 |
0,523 |
2,611 |
0,327 |
1,289 |
El Periódico |
0,183 |
0,158 |
0,291 |
0,746 |
0,321 |
1,032 |
0,353 |
1,296 |
0,539 |
2,462 |
0,324 |
1,034 |
Total |
0,183 |
0 |
0,3 |
0,889 |
0,333 |
1,18 |
0,37 |
1,474 |
0,539 |
3,064 |
0,336 |
1,202 |
Los datos siguen las distribuciones unimodales que se aprecian en la Figura 1, pero también un número significativo de valores atípicos que producen un sesgo a la derecha y, aparentemente, desviaciones de la normalidad. El test se realizó con 10000 iteraciones usando wild-bootstrapping (Friedrich et al., 2017). A la semilla de aleatorización se le asignó un valor arbitrario (123) para asegurar la reproductibilidad del experimento. El resultado muestra una diferencia significativa en el análisis combinado (MATS=402,167, p<0,001). La realización de pruebas diferenciadas produce resultados equivalentes para LS1 (MATS=123,833, p<0,001) y CVS1 (MATS=172,271, p<0,001), lo que sugiere una diferencia significativa en las distribuciones. Los resultados llevaron a análisis posthoc para encontrar la distribución responsable del rechazo de la hipótesis nula.
Una corrección Holm-Bonferroni del valor-p indica que ambos indicadores de sofisticación léxica contribuyen a la diferencia (0, 0). Un análisis de bootstrap univariado por pares de Mair y Wilcox (2020) con 10000 iteraciones muestra que solo El País-El Periódico (p=0,228) carece de diferencias significativas para LS1, mientras que para CVS1 no resulta significativo El Mundo-El País (p=0,852), mientras que todos los demás resultaron significativos como muestra la Tabla 4.
Publicación |
LS1 |
CVS1 |
||||||
IC inf |
IC sup |
p |
IC inf |
IC sup |
p |
|||
Abc El Mundo |
-0,014 |
-0,021 |
-0,006 |
<0,001 |
-0,084 |
-0,151 |
-0,017 |
0,001 |
Abc El País |
0,013 |
0,006 |
0,02 |
<0,001 |
-0,089 |
-0,15 |
-0,027 |
<0,001 |
Abc El Periódico |
0,016 |
0,009 |
0,024 |
<0,001 |
0,147 |
0,085 |
0,207 |
<0,001 |
El Mundo El País |
0,027 |
0,019 |
0,034 |
<0,001 |
-0,005 |
-0,072 |
0,063 |
0,852 |
El Mundo El Periódico |
0,03 |
0,023 |
0,038 |
<0,001 |
0,231 |
0,164 |
0,298 |
<0,001 |
El País El Periódico |
0,003 |
-0,004 |
0,01 |
0,228 |
0,236 |
0,173 |
0,299 |
<0,001 |
3.3. Diversidad léxica
La distribución de la diversidad léxica presenta un patrón parecido a la sofisticación. Los valores de centralidad más altos corresponden a El Mundo –más bajos en el caso de MAAS, que, como se menciona arriba, tiene una relación inversa–, como se observa en la figura 2. Después de aplicar una prueba MANOVA no paramétrica, se observa una diferencia significativa en la diversidad léxica (MATS=476,792, p<0,001). El ajuste del valor-p según Holm-Bonferroni sugiere que los tres indicadores son responsables del rechazo de la hipótesis nula (0, 0, 0).
Publicación |
0% |
25% |
50% |
75% |
100% |
||||||||||
HD-D |
MAAS |
MTLD |
HD-D |
MAAS |
MTLD |
HD-D |
MAAS |
MTLD |
HD-D |
MAAS |
MTLD |
HD-D |
MAAS |
MTLD |
|
Abc |
0,698 |
0,015 |
34,34 |
0,759 |
0,019 |
54,183 |
0,771 |
0,02 |
61,01 |
0,783 |
0,021 |
67,707 |
0,823 |
0,026 |
100,669 |
El Mundo |
0,697 |
0,014 |
32,812 |
0,76 |
0,018 |
55,662 |
0,774 |
0,019 |
63,193 |
0,784 |
0,019 |
70,469 |
0,831 |
0,024 |
110,93 |
El País |
0,709 |
0,016 |
35,687 |
0,754 |
0,019 |
52,257 |
0,765 |
0,02 |
57,834 |
0,778 |
0,021 |
66,108 |
0,824 |
0,025 |
107,167 |
El Periódico |
0,704 |
0,014 |
32,496 |
0,748 |
0,019 |
48,225 |
0,76 |
0,02 |
54,182 |
0,773 |
0,021 |
61,354 |
0,83 |
0,027 |
111,879 |
Total |
0,697 |
0,014 |
32,496 |
0,755 |
0,019 |
52,358 |
0,768 |
0,02 |
59,281 |
0,78 |
0,021 |
66,723 |
0,831 |
0,027 |
111,879 |
La comparación por pares que se presenta en la tabla 6 muestra valores significativos para todos los valores excepto Abc-El Mundo para HD-D, Abc-El País y Abc-El Periódico para MAAS.
Publicación |
HD-D |
MAAS |
MTLD |
|||||||||
IC inf |
IC sup |
p |
IC inf |
IC sup |
p |
IC inf |
IC sup |
p |
||||
Abc El Mundo |
-0,002 |
-0,004 |
0,001 |
0,082 |
0,001 |
0,001 |
0,002 |
<0,001 |
-2,08 |
-3,629 |
-0,604 |
0,001 |
Abc El país |
0,006 |
0,003 |
0,008 |
<0,001 |
0 |
0 |
0 |
0,055 |
2,389 |
0,844 |
3,889 |
<0,001 |
Abc El Periódico |
0,011 |
0,008 |
0,014 |
<0,001 |
0 |
0 |
0 |
0,393 |
6,502 |
4,984 |
8,006 |
<0,001 |
El Mundo El País |
0,008 |
0,005 |
0,01 |
<0,001 |
-0,001 |
-0,001 |
-0,001 |
<0,001 |
4,469 |
2,922 |
6,049 |
<0,001 |
El Mundo El Periódico |
0,013 |
0,01 |
0,016 |
<0,001 |
-0,001 |
-0,002 |
-0,001 |
<0,001 |
8,583 |
7,069 |
10,159 |
<0,001 |
El País El Periódico |
0,005 |
0,003 |
0,008 |
<0,001 |
0 |
0 |
0 |
0,007 |
4,114 |
2,602 |
5,623 |
<0,001 |
3.4. Complejidad léxica y distribución de ejemplares
La prueba de Pearson, realizada para detectar la correlación entre la difusión de la publicación y las medianas de los índices de complejidad léxica de los editoriales, indica que esta o bien no existe o es muy débil, excepto para CVS1. Asimismo, como muestra Tabla 7, da cuenta de una fuerte correlación (p=0,85) que, no obstante, puede ser casual.
|
Ejemplares |
LS1 |
CVS1 |
MAAS |
HD-D |
MTLD |
Ejemplares |
1 |
0.015 |
0.85 |
-0.247 |
0.155 |
0.201 |
LS1 |
0.015 |
1 |
0.518 |
-0.839 |
0.947 |
0.947 |
CVS1 |
0.85 |
0.518 |
1 |
-0.558 |
0.653 |
0.687 |
MAAS |
-0.247 |
-0.839 |
-0.558 |
1 |
-0.686 |
-0.709 |
HD-D |
0.155 |
0.947 |
0.653 |
-0.686 |
1 |
0.999 |
MTLD |
0.201 |
0.947 |
0.687 |
-0.709 |
0.999 |
1 |
4. CONCLUSIONES
De acuerdo a los resultados, parece claro que la complejidad léxica de los artículos editoriales publicados en 2019 por los periódicos estudiados varía de una publicación a otra de forma no trivial. Dicho de manera más precisa, hay diferencias estadísticas significativas en las distribuciones de la variedad léxica y de la sofisticación léxica de los artículos editoriales de los cuatro periódicos analizados.
El análisis de los datos revela que El Mundo publicó en 2019 los artículos editoriales con el léxico más elaborado aunque, paradójicamente, también es el único periódico que sacó un artículo todos cuyos verbos pueden considerarse no sofisticados (Por un turismo de mayor calidad, 2019). Asimismo, la distribución de las variables de complejidad presenta una notable variabilidad, lo que hace que buena parte de los artículos de El Mundo se encuentren en unos términos semejantes a los del tercer cuartil de Abc y El País. En la sofisticación de sus formas verbales, El Mundo es similar a El País en general, lo que sugiere que ambos describen acciones, estados y actitudes con una precisión léxica pareja. Por otra parte, aunque uno de los índices de diversidad léxica sugiere cierta similitud entre El Mundo y Abc, los otros dos indicadores no muestran signos de esta.
Los resultados de El Mundo llaman la atención al considerar que la dirección del periódico cambió cada año entre 2014 y 2017, incluso varias veces, y cada uno de los seis directores de ese periodo pudo influir en los artículos editoriales. Por lo tanto, sería interesante dilucidar si los valores para 2019 obtenidos en este estudio se corresponden con los históricos. La distribución no muestra tendencias que permitan aventurar una predicción, como cabe esperar de la estabilidad del último periodo, por lo que se haría necesario un estudio longitudinal con datos de los años anteriores a 2017 para encontrar una posible variación de la complejidad a lo largo del tiempo.
Los artículos menos complejos los publicó El Periódico, aunque también es la cabecera que tiene las distribuciones más homogéneas, con casos extremos más infrecuentes y valores centrales más habituales que los de otros periódicos. A pesar de esto, atendiendo solo a la sofisticación léxica del conjunto de todas sus palabras con valor semántico pleno, este diario está en la misma categoría que El País. A raíz de los resultados surge la pregunta acerca de si estos son fortuitos o existe otra causa. El cambio de dirección de 2019 no parece haber influido en los resultados, máxime considerando su regularidad. Por otra parte, se trata de una cabecera editada en una región bilingüe y parte de cuyos textos son traducciones. El hipotético peso de la traducción sería, en todo caso, también relativo a la vista de la centralidad de la distribución. Sería, tal vez, más interesante comparar periódicos catalanes y otras regiones bilingües para comprobar si la baja complejidad léxica es un fenómeno aislado limitado a este diario. Esto requeriría, claro está, acceso a los artículos que, como se ha mencionado, no es una cuestión sencilla pues requiere que las empresas editoriales tengan voluntad y medios para permitir el acceso a los contenidos.
Podemos también concluir que un mayor número de lectores no es sinónimo de mayor complejidad léxica, pues no se ve una correspondencia clara. Estos resultados son inesperados, pues El País, además de ser el medio de mayor difusión, ha sido considerado históricamente como el diario de referencia de la prensa escrita española (Imbert & Vidal-Beneyto, 1986). En todo caso, no puede dejar de mencionarse que hubo un cambio de dirección en 2018. Desafortunadamente, no es posible determinar si esto es un factor determinante, pues los datos de ese 2019 no sugieren una tendencia que permita extrapolar una predicción, por lo que se haría necesario comprobar si tuvo lugar un cambio visible en 2018.
REFERENCIAS BIBLIOGRÁFICAS
Asociación para la Investigación de Medios de Comunicación. (2019). Ranking de diarios (2019-3.a Ola). Estudio General de Medios. http://reporting.aimc.es/index.html#/main/diarios
Bathke, A. C., Friedrich, S., Pauly, M., Konietschke, F., Staffen, W., Strobl, N., & Höller, Y. (2018). Testing Mean Differences among Groups: Multivariate and Repeated Measures Analysis with Minimal Assumptions. Multivariate Behavioral Research, 53(3), 348-359. https:// doi.org/10/gjpksj
David, A., Myles, F., Rogers, V., & Rule, S. (2009). Lexical Development in Instructed L2 Learners of French: Is There a Relationship with Morphosyntactic Development? En B. J. Richards, D. D. Malvern, M. H. Daller, P. Meara, J. Milton, & J. Treffers-Daller (Eds.), Vocabulary Studies in First and Second Language Acquisition: The Interface Between Theory and Application (pp. 147-163). Palgrave Macmillan.
Derrota en dos tiempos [Editorial]. (2019, 13 de agosto). El País. https://elpais.com/ elpais/2019/08/12/opinion/1565629594_068797.html
Friedrich, S., Konietschke, F., & Pauly, M. (2017). A Wild Bootstrap Approach for Nonparametric Repeated Measurements. Computational Statistics & Data Analysis, 113, 38-52. https:// doi.org/gk9k
Friedrich, S., Konietschke, F., & Pauly, M. (2019). MANOVA.RM (Version 3.4.0) [Software]. https:// cran.r-project.org/web/packages/MANOVA.RM/index.html
Friedrich, S., & Pauly, M. (2017). MATS: Inference for Potentially Singular and Heteroscedastic. MANOVA. Journal of Multivariate Analysis, 165, 166-179. https://doi.org/gk9m
Hernández-Muñoz, R. (1997). Avances en la búsqueda de un sistema de calidad para las redacciones de los diarios. Communication & Society, 10(1), 169-192. https://revistas.unav.edu/ index.php/communication-and-society/article/view/35640/31018
Imbert, G., & Vidal-Beneyto, J. (1986). El País o la referencia dominante. Mitre.
Konietschke, F., Bathke, A. C., Harrar, S. W., & Pauly, M. (2015). Parametric and Nonparametric Bootstrap Methods for General MANOVA. Journal of Multivariate Analysis, 140, 291-301. https://doi.org/gk9n
Laufer, B. y Nation, P. (1995). Size and Use: Lexical Richness in L2 Written Production. Applied Linguistics, 16(3), 307-322. https://doi.org/bwf4sp
Linnarud, M. (1986). Lexis in Composition: A Performance Analysis of Swedish Learners’ Written English. CWK Gleerup.
Lu, X. (2012). The Relationship of Lexical Richness to the Quality of ESL Learners’ Oral Narratives.The Modern Language Journal, 96(2), 190-208. https://doi.org/f3722w
Lu, X., Gamson, D. A., & Eckert, S. A. (2014). Lexical Difficulty and Diversity of American Elementary School Reading Textbooks. International Journal of Corpus Linguistics, 19(1), 94-117. https://doi.org/gk9p
Maas, H. D. (1972). Zusammenhang zwischen Wortschatzumfang und Länge eines Textes. ZeitschriftFür Literaturwissenschaft Und Linguistik,8, 73-79.
MacWhinney, B. (2019). Tools for Analyzing Talk, Part 2: The CLAN Program. Carnegie Mellon University. https://talkbank.org/manuals/CLAN.pdf
Mair, P., & Wilcox, R. R. (2020). Robust Statistical Methods in R Using the WRS2 Package. BehaviorResearch Methods, 52, 464-488. https://doi.org/gf7fm2
Malvern, D. D., Richards, B. J., Chipere, N., & Durán, P. (2004). Lexical Diversity and Language Development: Quantification and Assessment. Palgrave Macmillan.
Manning, C. D., Surdeanu, M., Bauer, J., Finkel, J., Bethard, S. J., & McClosky, D. (2014). The Stanford CoreNLP Natural Language Processing Toolkit. Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 55-60. https://doi.org/ gf3xhp
Martínez Alonso, H., & Zeman, D. (2016). Universal Dependencies for the AnCora Treebanks. Sociedad Española para el Procesamiento del Lenguaje Natural, 57, 91-98. http:// journal.sepln.org/sepln/ojs/ojs/index.php/pln/article/view/5341
McCarthy, P. M. (2005). An Assessment of the Range and Usefulness of Lexical Diversity Measures and the Potential of the Measure of Textual, Lexical Diversity (MTLD) [Tesis doctoral, University of Memphis]. https://bit.ly/36cy6sY
McCarthy, P. M., & Jarvis, S. (2007). vocd: A theoretical and empirical evaluation. Language Testing, 24(4), 459-488. https://doi.org/c3qdpx
McCarthy, P. M., & Jarvis, S. (2010). MTLD, vocd-D, and HD-D: A Validation Study of Sophisticated Approaches to Lexical Diversity Assessment. Behavior Research Methods, 42(2), 381-392. https://doi.org/bbvvsj
MacWhinney, B. (2000). The CHILDES Project: Tools for Analyzing Talk, Vol. 2 (3.a ed.). Lawrence Erlbaum.
Por un turismo de mayor calidad [Editorial]. (2019, 15 de agosto). El Mundo. https:// www.elmundo.es/opinion/2019/08/16/5d5590dffdddffa4548b45cf.html
Qi, P., Dozat, T., Zhang, Y., & Manning, C. D. (2018). Universal Dependency Parsing from Scratch. Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, 160-170. https://doi.org/gf6gst
Real Academia Española. (2018). Banco de datos (CORPES XXI). Corpus del Español del Siglo XXI (CORPES) [Corpus]. https://www.rae.es/recursos/banco-de-datos/corpes-xxi
Russ-Mohl, S. (2008). Quality Press. En W. Donsbach (Ed.), The International Encyclopedia of Communication. Wiley-Blackwell. https://doi.org/gwpr
Shen Yan Shun, L. (2018). LexicalRichness: A small module to compute textual lexical richness (Version 0.1.3) [Software]. https://github.com/LSYS/lexicalrichness
SIGNLL. (2018). CoNLL 2018 Shared Task. SIGNLL: ACL’s Special Interest Group on Natural Language Learning. https://universaldependencies.org/conll18/
Stanford NLP Group. (2018). System Performance. StandfordNLP. https://stanfordnlp.github.io/stanfordnlp/performance.html
Templin, M. C. (1957). Certain Language Skills in Children. University of Minnesota Press.
Wolfe-Quintero, K., Inagaki, S., & Kim, H. Y. (1998). Second Language Development in Writing: Measures of Fluency, Accuracy, and Complexity. University of Hawai’i Press.