efdeportes.com
Nuevas estrategias de análisis aplicadas a la comunicación
audiovisual: una experiencia con informativos de televisión

   
Dirigida por el Prof. Dr. Antonio Hernández Mendo
Facultad de Psicología
Universidad de Málaga - 2001

 
 
Esther Mena Rodríguez
(España)
 

 

 

 

 
A mi padre porque allí donde esté, sé que este día le habría llenado de satisfacción.
 

 
http://www.efdeportes.com/ Revista Digital - Buenos Aires - Año 9 - N° 63 - Agosto de 2003

1 / 2

Agradecimientos

Al Dr. D. Antonio Hernández Mendo, director de esta tesina,
por su paciencia y ayuda inestimable y por haber confiado en mí desde un principio.
Al Dr. D. Miguel de Aguilera Moyano porque, a pesar de todas sus obligaciones,
siempre ha tenido tiempo para atenderme y ayudarme con sus sabios consejos.
Al Dr. D. Juan Carlos Tójar Hurtado, porque sin su comprensión
y colaboración esta tesina no hubiera visto nunca la luz.
A mi familia por ese tiempo que no les he podido dedicar y apoyarme
en todo momento comprendiendo mis malos ratos.
A mis compañeras de doctorado Silvia e Isabel por escucharme,
comprenderme y tratar de ayudarme en todo lo que han podido.
A mis amigos por darme ánimo en los momentos bajos.
Y a todas esas personas que sin yo saberlo me han ayudado con
sus consejos y buen hacer.

A todos ellos mi agradecimiento.


Introducción

    Aplicar nuevas estrategias de análisis a un objeto de estudio tan peculiar como es la información audiovisual, ha requerido adoptar una forma diferente de razonamiento, un método en el sentido estricto de la palabra y una aplicación de técnicas determinadas dentro de un contexto científico.

    El presente estudio no intenta ser una réplica, ni una continuación ampliada de algún estudio anterior sobre el tema. Más bien, pretende conjuntar en una misma investigación, y por primera vez, varias técnicas de análisis que no se excluyen entre sí sino que se complementan. Estas son las siguientes:

  1. Análisis de contenido

  2. Análisis de varianza (ANOVA)

  3. Análisis de varianza de medidas repetidas (MANOVA)

  4. Análisis log-lineal

  5. Análisis de generalizabilidad

    Todas estas técnicas de análisis aplicadas a la información audiovisual suponen un reto, la dificultad derivada de la aplicación de técnicas cuantitativas a un objeto de estudio procedente de la observación directa. Como ejemplo se puede hacer referencia a la limitada capacidad del ser humano para almacenar de forma fidedigna todo aquello que percibe y la falta de objetividad en su interpretación. Estas limitaciones son en parte subsanables mediante procedimientos de registro auditivos o visuales que permiten completar la observación humana en el espacio y en el tiempo, remediando la subjetividad y el carácter poco riguroso de la misma.

    El presente trabajo está estructurado en varios bloques unidos entre sí siguiendo un hilo estructural: el tratamiento de la información televisiva.

    En un primer apartado, nos introduciremos en el mundo de los mass media analizando los principales modelos teóricos y ámbitos de investigación que han caracterizado los estudios mediológicos. Se verá cómo este objeto de estudio tan peculiar por lo que en un mismo concepto engloba: reglamentaciones legislativas, intereses financieros, viejas polémicas sobre los efectos nocivos que los mass media ejercen sobre la audiencia infantil, miedo sobre la aplicación de nuevas tecnologías a la producción, persuasión de los mensajes, etc., no se puede desligar de la sociedad en la que se desarrolla y por la que es influenciado.

    Lo anteriormente expuesto se refleja en la manera de estudiar y sobre todo de analizar dicho objeto, así en este apartado, se verá que la investigación en comunicación ha seguido los problemas surgidos a lo largo del tiempo, dando como resultado una infinidad de puntos de vista tan heterogéneos que dificulta sintetizar dicha trayectoria. Por este motivo sólo se reflejarán las tendencias más difundidas e influyentes dentro de la investigación en comunicación.

    Concluiremos este apartado viendo cómo la investigación en comunicación ha estado "llena de intentos de repudiar viejas teorizaciones, de iniciar otras nuevas y de dirigir la atención hacia aspectos que permanecían inexplorados" (Elliot, 1974 cit. en Wolf, 1991), y cómo se está trasladando "el centro de gravedad del análisis comunicativo del uso de un método a la sustancia de problemas que requieren metodologías distintas para su valoración" (Bauer, cit. en Wolf, 1991).

    En definitiva se trata de unificar la tendencia sociológica y la tendencia comunicativa e investigar las conexiones y puntos en común de dichas perspectivas.

    En un segundo apartado se intentará definir qué se entiende por noticia ya que ésta va a ser el objeto de nuestra investigación. Se verá cómo dicho concepto también ha evolucionado con el paso del tiempo y ha tenido que ir reestructurándose y redefiniéndose según los resultados de las investigaciones.

    Así, la noticia pasó de ser considerada como un espejo fiel de la realidad social a contemplarse como una reconstrucción de la misma en virtud de los intereses de los informadores. Por lo tanto, partimos de que "el discurso de la noticia contiene siempre una interpretación, sea explícita o implícita" tal como expresan Fontcuberta y Velázquez (1987), y de la intencionalidad de los medios de comunicación al elaborar la programación.

     El tercer apartado estará destinado al análisis de contenido, como método de investigación más utilizado a la hora de analizar la información en comunicación. Trazaremos la perspectiva histórica de este tipo de análisis, que apareció con un carácter totalmente interpretativo y aplicado casi en exclusividad a medios de comunicación escritos, para evolucionar, con el desarrollo del mismo, a un tipo de análisis inferencial aplicado a medios de comunicación audiovisuales.

    También se verá cómo esta forma de tratamiento de la información buscó objetos de estudio procedentes de otras disciplinas, como la psicología, la política, la psicolingüística, la antropología y la pedagogía, que hicieron de esta técnica su proceder, proliferando así estudios de corte cualitativo.

    Se concluirá el tercer apartado con una visión de cómo el uso de nuevas tecnologías aplicadas al análisis de contenido hacen posible y más operativa la investigación en la comunicación. Para ello se realizará un breve repaso de los programas informáticos más relevantes para el análisis de datos cualitativos.

    El cuarto apartado está destinado en exclusividad a la metodología utilizada. Se compararán los resultados obtenidos a través de un análisis de contenido de las noticias televisivas con los resultados obtenidos con otras técnicas de análisis novedosas en este campo de investigación. Ésta es precisamente nuestra hipótesis de partida, estimar la validez en la aplicación de nuevas técnicas de análisis en comunicación audiovisual.

    Se concluirá este cuarto apartado, describiendo la muestra elegida, las variables analizadas y el tratamiento de la información (técnicas de análisis utilizadas).

    El quinto apartado estará destinado al comentario y discusión de los resultados. Además se explicitarán futuras líneas de investigación.

    En definitiva, lo que se pretende es que este trabajo sirva de puente para una futura investigación, en la que se cumplan todos los requisitos en cuanto al rigor que el método científico requiere.


1. Marco teórico

    Dentro de la investigación en la comunicación de masas, los estudios han ido evolucionando en relación a los métodos de análisis utilizados en el estudio de la comunicación, según las teorías sociológicas influyentes en cada periodo y por las peculiares necesidades de conocimiento de los investigadores.

    De esta forma, con la gran difusión de noticias generadas en el periodo entre guerras, surgió la necesidad de estudiar dicho fenómeno desde el punto de vista de la comunicación, emergiendo la teoría hipodérmica.

    Según esta teoría, el receptor es un elemento pasivo. Siguiendo a Wright "cada miembro del público de masas es personal y directamente 'atacado' por el mensaje". (Cit. en Wolf, 1991) y Lazarsfeld definía los medios de comunicación social como "una especie de sistema nervioso simple que se extiende hasta cada ojo y cada oído, en una sociedad caracterizada por la escasez de relaciones interpersonales y por una organización social amorfa". (Cit. en Wolf, 1991).

    La teoría pareció confirmarse en 1938 con la radiodifusión de "La guerra de los mundos" realizada por Orson Wells. El pánico que produjo entre los oyentes vino a corroborar la idea de la supuesta credulidad de las masas y la influencia de la radio. Posteriormente el trabajo de Cantril en 1940, aclaró que los motivos de pánico generalizado también se debieron al contexto de crisis económica y desempleo que afectaba a Estados unidos en esa época.

    Uno de los fenómenos que puso en entredicho a la teoría hipodérmica fue que algunas campañas conseguían precisamente el efecto contrario al proyectado por los creadores. Por lo tanto, a partir de este momento, tuvieron que ser tenidos en cuenta los estudios de los fenómenos psicológicos individuales, las interrelaciones entre individuos y medios de comunicación y de ambos con la sociedad.

    En definitiva cuando queremos saber qué es lo que interpreta el público, evidentemente nos estamos centrando en los efectos que tienen sobre él los mensajes que recibe.

    Las primeras teorías acerca de los efectos, parten de los años cuarenta, cuando se iniciaron estudios acerca de la complejidad comunicativa, social y cognoscitiva que determinan los resultados de la acción informativa. En esta teoría de los efectos se aprecia con claridad dos tipos de influencia. Por una parte, la del equipo de sociólogos que trabajaba con P. F. Lazarsfeld que estudiaban los efectos de la propaganda política, y por la otra, la de los psicólogos que trabajaban con C. I. Hovland en referencia a los métodos de persuasión.

    El trabajo de Lazarsfeld de 1940 Radio and the Printed Page. An Introduction to the Study of Radio and Its Role in the Communication of Ideas, inauguró una línea de estudio hacia la teoría de los efectos limitados. Proponiendo como método de investigación el análisis de contenido de los programas para saber lo que el programa puede significar para los oyentes, el análisis diferencial de los distintos grupos de oyentes para estudiar el contexto de la comunicación, teniendo en cuenta factores de tipo psicosociológico como el género, religión, edad, niveles de motivación, etc. y un análisis sobre las gratificaciones que dichos programas aportan al público.

    Por lo tanto, si hablamos de "influencia interpersonal" y de relaciones sociales en las que el concepto de "masa" queda diluido, "los efectos limitados" y de "refuerzo" constituyen el único tipo de influencia ejercido por los medios de comunicación.

    En relación a estas investigaciones también trabajó Kappler. Este autor realizó una recopilación de numerosos estudios desde la óptica psico-sociológica y sociológica que se desarrollaron entre los años 1940 y 1964.

    En estos estudios se puso de manifiesto que estas dos líneas de investigación superaban la interpretación de los efectos como resultados puntuales que seguían los planteamientos conductistas elementales, a la vez que representó una superación crítica del paradigma de Lasswell, que no contemplaba la complejidad de los procesos de circulación y decodificación informativas.

    En 1949 los ingenieros Shannon y Weawer formularon un modelo comunicativo denominado teoría matemática de la comunicación que resultó ser un modelo unidireccional que no tenía en cuenta a los sujetos sociales ni a las acciones que se llevan a cabo en el acto comunicativo y, por lo tanto, no se interesaba por los valores semánticos del intercambio de la comunicación.

    Todas estas investigaciones revelaron la existencia de una gran pluralidad de factores en la determinación de la influencia de las comunicaciones sobre los individuos.

    Este nuevo enfoque experimentó sobre las consecuencias de las alteraciones y variaciones de los elementos básicos del proceso comunicativo (fuente, contenido, medio de comunicación, situación de la comunicación) y sobre la influencia que los grupos ejercen sobre los individuos, con especial atención sobre el papel de los líderes de opinión.

    La sociología de los efectos aportó importantes descubrimientos, tales como que las acciones del emisor y del receptor están determinadas por su ubicación en el sistema social; que la comunicación social refuerza las actitudes y opiniones ya existentes; que los medios de comunicación más que modificar refuerzan; que el público tiende a prestar más atención a lo que más le gusta o está más de acuerdo con sus expectativas; que la comunicación de masas se estructura con otros canales y pautas de comunicación y que entre los medios y el público se sitúan los líderes de opinión.

    Para la corriente empirico-experimental o de la persuasión, también denominada teoría psicológica, los elementos de la comunicación están tomados como algo complejo que responden, entre otros, a factores de tipo psicológico de los receptores. La interpretación modela y transforma el significado del mensaje adecuándolo al sistema de valores del destinatario. Se intentó por tanto, evaluar de forma empírica los efectos de los medios de comunicación de masas y se comprobó que el público no era tan manipulable como a simple vista se creía, más bien se comportaba como un elemento activo y transformador. Tal como expresa Schramm (1971, cit. en Wolf, 1991): "Esta evolución desde la teoría Bala al estudio del Público Obstinado y de allí al concepto de Público Activo constituye uno de los capítulos interesantes e importantes en la ciencia social moderna". El individuo no es un ser aislado sino que interactúa socialmente. La comunicación no es un proceso lineal, lo que se transmite no es un mensaje sino mas bien un haz de mensajes que forman el contexto comunicativo, desplazándose de esta manera la investigación de los medios de comunicación de masas a un terreno colectivo.

    La sociología de la comunicación funcionalista se desarrolló a partir de la visión de la actividad social como algo estructurado, con interdependencia de sus elementos, en el sentido de que el uso de los medios no es independiente de la función social que cumplen.

    El primer teórico que formuló las propuestas básicas de la teoría funcionalista fue Harold D. Lasswell en el artículo "The Structure and Functions of Comunications in Society" de 1948 (Cit. en Wolf, 1991), en el cual planteaba un paralelismo entre la acción de los medios de comunicación social y las funciones dentro de la comunicación animal y biológica. En esta obra, Laswell propuso que, "una forma apropiada para describir un acto de comunicación es responder a las siguientes preguntas: ¿Quién dice? ¿qué? ¿a través de qué canal? ¿a quién? ¿con qué efecto? El estudio científico del proceso comunicativo tiende a concentrarse en algunos de estos puntos interrogativos." (Cit. en Wolf, 1991). De esta manera, el proceso comunicativo queda dividido en varios sectores: por un lado los emisores; por otro el estudio de la elaboración de los mensajes y por último, el análisis de las audiencias y los efectos.

    Para Laswell las funciones de los medios serían:

  1. La supervisión o vigilancia del ambiente, es decir, la recogida y posterior distribución de la información para que la comunidad esté alerta de lo que ocurre en su entorno.

  2. La preparación de la respuesta de la sociedad, es decir, conseguir un ambiente adecuado para una pronta respuesta.

  3. La transmisión de una herencia sociocultural de una generación a otra. Se trata que de conseguir que las pautas de comportamiento se traspasen de una generación a otra para evitar que se produzca una distorsión en la organización social y se garantice el desarrollo de las funciones comunicativas.

    A estas tres funciones fundamentales Wright añade en 1960 una cuarta:

  4. El entretenimiento, único concepto que no está directamente relacionado con la función política.

    En definitiva, los trabajos de este autor son los que primero cuestionan el problema del receptor en el paradigma informacional.

    Esta teoría funcionalista encontró su límite porque no profundizó en el estudio de las estructuras de las interrelaciones entre el sistema comunicativo y la organización social y simplemente encasilló en cuatro conceptos todo el complicado proceso de la comunicación social.

    En una fase más desarrollada, el funcionalismo planteó dos nuevas subdivisiones, distinguiendo entre funciones manifiestas y funciones latentes, y entre funciones y disfunciones. Esto se desarrolló en el sentido de que los medios de comunicación social tanto pueden contribuir a la estabilidad, como al desorden o retroceso.

    A partir de estas teorías, se estudiarán los efectos principales y secundarios que producen los medios; los efectos a corto y largo plazo; los efectos directos e indirectos; los efectos manifiestos y latentes y se analizarán los medios tanto como fuente de persuasión como fuente de información, buscando diferenciar los efectos cognitivos de los efectos en las actitudes.

    Con estas nuevas teorías se llegará a la conclusión de que los medios de comunicación sí tienen el poder que le imprimían las primeras teorías del impacto directo diferenciándose en la explicación de dicho poder. Estos nuevos estudios harán referencia a una situación social más compleja y que determina los intereses, las normas, los medios y los usos de los medios.

    En esta última etapa, se recupera el concepto de opinión pública que, hasta el momento, se identificaba con la suma de opiniones y actitudes y que, a partir de ahora, será un eje fundamental para explicar las relaciones entre las distintas instancias que participan en la comunicación.

    De entre estas teorías sobre los efectos destacan tres por su importancia y relación con la opinión pública: la teoría de los usos y gratificaciones, la teoría de la fijación de la agenda (agenda-setting) y la teoría de la espiral del silencio.

    El funcionalismo parte del supuesto de la existencia de unas condiciones sociales predeterminadas: la consecución de los fines, la adaptación al medio, el mantenimiento de las pautas y la integración en el sistema.

    Estos supuestos quedaron desmentidos por los propios avatares socio-políticos que siguieron a la teoría y fue, en este punto, cuando las investigaciones más en consonancia con los descubrimientos apuntados por Lazarsfeld, la antropología y la semiótica trasladaron su atención hacia las actitudes de los receptores. Se invierte la dirección de los estudios, si anteriormente el flujo comunicativo se estudiaba desde el comunicante hacia el receptor, a partir de ahora se analiza el proceso desde el punto de vista de la recepción, desechándose la cuestión ¿qué hacen los medios con la audiencia?

    A partir de ahora la gran cuestión será, ¿qué hacen las personas con los medios?, esto obligó a revisar críticamente las categorías establecidas por el funcionalismo clásico y a considerar hasta qué punto la satisfacción de las necesidades del público tiene otras posibles fuentes de satisfacción, demostrándose que algunas de las funciones atribuidas a los medios de comunicación social podían ser cumplidas por otras instancias sociales, destacando los niveles de comunicación no masivos. Según esto, las funciones de los medios de comunicación social serían intercambiables y substituibles y ya no se estudian como exclusivas y propias.

    El enfoque de la teoría de los usos y las gratificaciones propone conceptos y presenta pruebas que explican la conducta de los individuos respecto a los medios. Este nuevo enfoque dentro del estudio de los efectos toma como punto de partida al consumidor de los medios, en vez de darle total prioridad al mensaje que los medios transmiten, estudiando la conducta comunicativa del individuo en relación a su experiencia directa con los medios.

    En resumen, en la teoría de los usos y las gratificaciones, el público se muestra como un usuario activo del contenido de los medios más que como un usuario pasivo influido por los mismos. Esto lleva a que no exista una relación directa entre los mensajes y los efectos, sino que los usuarios hacen uso de los mensajes y ese uso funciona como una variable que interviene en el proceso del efecto. En palabras de McQuail, (1975) El receptor actúa sobre la información de la que dispone y la usa.

    Esta teoría aporta una perspectiva más amplia para el estudio de la conducta individual frente a los medios, ya que estudia la forma en que los seres humanos crean y gratifican sus necesidades. Algunas de esas necesidades pueden estar relacionadas con los medios y otras no y, por lo tanto, se pueden gratificar por otras fuentes, es decir, las gratificaciones pueden ser derivadas no sólo del contenido de los medios sino del propio acto de la exposición ante un medio dado.

    La inspiración de este enfoque parte de la afirmación de Elihu Katz, en 1959, de que la investigación ha de prestar menos atención a lo que los medios hacen a la gente y más a lo que la gente hace con los medios. Algunos años más tarde Blumer y McQuail realizan la primera aplicación empírica sobre los usos que los telespectadores británicos habían dado a los mensajes electorales de la campaña de 1966. Por último, un artículo de Katz, Blumler y Gurevitch, publicado en Public Opinión en 1974, supone el asentamiento definitivo de esta teoría.

    Según la perspectiva de esta teoría, la influencia de los mensajes depende más de los objetivos del receptor del mensaje que de las características del propio mensaje. Con lo cual, un mismo mensaje puede desencadenar diferentes efectos. Sentadas estas bases, la estrategia a seguir en la investigación, es consultar a los miembros de la audiencia qué motivos concretos les han llevado a prestar atención a unos mensajes, a elegir un medio u otro y qué gratificaciones han experimentado.

    Katz, Blumler y Gurevitch se esforzaron por sistematizar los aspectos diferenciales de la teoría de usos y gratificaciones con respecto a las líneas clásicas de estudio de los efectos.

    Según estos autores, este tipo de análisis se ocuparía de:

  1. Los orígenes sociales y psicológicos.

  2. Las necesidades que generan.

  3. Las expectativas.

  4. Los medios de masas y otras fuentes.

  5. Los esquemas diferentes de exposición a los medios.

  6. Las gratificaciones diversas respecto a una necesidad.

  7. Otras consecuencias, en su mayoría involuntarias.

    Estos mismos autores basaron su punto de vista en los siguientes presupuestos:

  1. El público es activo y se acerca a los medios para lograr ciertos objetivos.

  2. Cada miembro de la audiencia tiene la iniciativa de vincular la gratificación de una necesidad a la elección de un medio.

  3. Hay competencia entre los medios de comunicación y otros medios para procurar gratificaciones a la gente.

  4. Los individuos poseen la suficiente capacidad para reconocer sus motivos de uso o sus necesidades, lo que supone que la técnica de la encuesta a los receptores o usuarios es viable.

  5. Los juicios de valor acerca de la calidad cultural e influencia nociva o no resultan inválidos y presuntuosos si se renunciara a conocer lo que declaran al respecto los miembros del público.

    El otro gran esfuerzo de los investigadores en el campo de los usos y la gratificaciones, ha consistido en crear una minuciosa y sistemática tipología de los usos y las gratificaciones que los medios de comunicación pueden reportar en su conjunto, pero la propia diversidad de medios, contenidos, públicos y situaciones ha impedido disponer de una clasificación universalmente válida.

    Tal variedad de situaciones de motivación no ha empañado la obtención de conclusiones importantes y de validez permanente, tal como que las gratificaciones que el individuo obtiene provienen de tres fuentes: por un lado del contenido del medio, por otro de la propia exposición al mismo y, por último, del contexto social en el que se produce la relación. El contenido en sí mismo puede gratificar al individuo, la forma de presentación puede actuar como la fuente del atractivo y la situación de exposición puede ser la causa o el objetivo de la exposición.

    En relación con esta teoría existen una serie de críticas, en su mayoría, puestas de relieve por los propios autores que la han llevado a cabo. Según esto se puede confeccionar la siguiente relación de críticas y autocríticas:

  1. La vaguedad teórica o conceptual de partida que acepta la utilización indiscriminada y carente de rigor de las expresiones "uso", "gratificación", "satisfacción", etc... . Al no haberse definido previamente el sentido exacto de cada expresión los resultados de la investigación acaban siendo tautológicos, es decir, se obtienen resultados agregados estadísticos derivados del sentido que los encuestados le dan al termino y esas respuestas son aceptadas para establecer conclusiones.

  2. La estrategia de la teoría de los usos y las gratificaciones resulta demasiado individualista y psicologista, tanto en su concepción como en el método de trabajo.

  3. Carece de profundización crítica en lo referente a la influencia social de los medios. Se puede llegar al caso de considerar gratificante sólo aquello que le gusta a la gente y se puede caer en la tentación de que éste se convierta en el único criterio de evaluación del contenido de los medios.

  4. Se puede dar el caso de que los propios medios creen las mismas necesidades que pueden satisfacer.

  5. Se han planteado serias dudas en relación a la capacidad de los encuestados de revelar sus autenticas motivaciones, bien por la propia simplicidad de los cuestionarios o bien porque la audiencia media, al no tener costumbre de racionalizar su conducta, sea capaz de objetivar sus necesidades, gratificaciones y motivaciones auténticas. Por ejemplo, es muy difícil que el miembro de la audiencia sea capaz de distinguir entre gratificaciones inmediatas y gratificaciones diferidas.

  6. También se han planteado serias dudas al respecto de la actividad de la audiencia. Hay pruebas de comportamientos habituales no selectivos, sobre todo ante la televisión o en las costumbres de comprar la prensa diaria.

  7. La dependencia que tiene esta teoría del funcionalismo, que lleva al investigador a adoptar el modelo conservacionista del sistema social en el cual todo acoplamiento es interpretado en un sentido positivo y todo propósito de parte de los medios, se considera como una ayuda a los individuos para conseguir dicho acoplamiento.

    A partir de los años setenta se desarrollaron gran cantidad de análisis mixtos y complementarios de los estudios sobre el estímulo, o del contenido en sí y la actuación del medio. En la nueva visión de esta teoría, citada por McQuail en su trabajo de 1984, se considera la teoría de los usos y gratificaciones como un enriquecimiento conceptual y metodológico para el estudio de la influencia de los medios. Pero también apunta la necesidad de explorar en otras direcciones tales como la sociedad como causa, el contenido cultural como verdadero determinante de las respuestas y hacia las explicaciones de dichas respuestas en los comportamientos y personalidades individuales.

    Por su parte la teoría de la fijación de la agenda (agenda-setting) se centra en la capacidad de los medios para transmitir y canalizar la información. No le interesa tanto el efecto que producen los medios en el cambio de actitud sino el efecto que producen los medios sobre las cogniciones.

    Según Shaw, (1979), esta teoría sostiene que, como consecuencia de la acción de los periódicos, de la televisión y de los demás medios de información, el público es consciente o ignora, presta atención o descuida, enfatiza o pasa por alto, elementos específicos de los escenarios públicos. La gente tiende a incluir o a excluir de sus propios conocimientos lo que los media incluyen o excluyen de su propio contenido. El público además tiende a asignar a lo que incluye una importancia que refleja el énfasis atribuido por los mass media a los acontecimientos, a los problemas, a las personas.

    Es decir, dentro de una sociedad, los individuos necesitan encontrar la explicación del mundo que les rodea que, en definitiva, es construir su propio mapa cognitivo. Según esta teoría, los medios de comunicación con sus mensajes, imágenes y estereotipos, van creando día a día el marco de referencia informativo adecuado para completar el mapa cognitivo de las personas. La importancia del medio radica en que éstos orientan al individuo en sus pensamientos, ofreciéndole unos temas y silenciándole otros, determinando la importancia de los mismos y el orden de prioridades. La atención pública, por lo tanto, se enmarca en el espacio público informativo.

    En opinión de Shaw, (1979), la hipótesis de la agenda-setting no sostiene que los media procuran persuadir […]. Los media, al describir y precisar la realidad externa, presentan al público una lista de todo aquello en torno a lo que tener una opinión y discutir […]. El presupuesto fundamental de la agenda-setting es que la comprensión que tiene la gente de gran parte de la realidad social es modificada por los media.

    Como dice Cohen, (1963), si bien es verdad que la prensa puede no conseguir la mayor parte del tiempo decir a la gente lo que debe pensar, es sorprendentemente capaz de decir a los propios lectores en torno a qué temas deben pensar algo.

    Por otra parte, E. Noelle-Neumann en un libro publicado en 1973 llamado "Return to the Concept of Powerful Mass Media", explicó el impacto de los medios en el público como un efecto a largo plazo, integrando aspectos tales como: el poder de los medios, la comunicación interpersonal, la imagen que uno tiene de sí mismo y de los demás y el efecto de la mayoría. Según esta autora, el tema de la percepción selectiva queda confirmada, pero se ha olvidado otro factor importante a la hora de explicar el efecto de los medios: la consonancia. Los medios de comunicación son tan influyentes que producen gran semejanza en las opiniones y conductas de la población. Los medios de comunicación crean un marco de referencia informativo al que ha de acomodarse la realidad y sobre todo la noticia. Dicho de otra forma, aquellas informaciones que encajen en el marco de referencia común, serán publicadas y aquellas que se aparten del mismo permanecerán en el silencio.

    Algunos factores que contribuyen a esta consonancia son:

  1. Los criterios de éxito frente al público.

  2. La tendencia de los medios de confirmar sus puntos de vista y mostrar que se ha dado la interpretación correcta.

  3. La dependencia de las mismas fuentes.

  4. La autoinfluencia entre los medios.

  5. El interés común en encontrar la aprobación dentro de los propios medios.

  6. Las semejanzas según criterios demográficos y psicológicos.

    De esta forma Neumann distingue entre la distribución real de las opiniones y la idea que tienen las personas sobre dicha distribución. Basándose en el miedo que las personas tienen al aislamiento, defiende que las personas que sintonizan con la opinión mayoritaria y reciben el apoyo de los medios informativos, encuentran mayor facilidad para expresar sus puntos de vista que las personas que disienten de los demás.

    Según esto, la opinión pública no se ha de corresponder con la corriente mayoritaria en la realidad, sino con la corriente publicada. La espiral del silencio aparece cuando durante un tiempo más o menos largo, una parte importante de las opiniones, se esconden en el silencio por no tener el apoyo necesario en el espacio público informativo, pudiendo ocurrir que las opiniones silenciadas sean mayoritarias.


1.1. La noticia

    Si analizamos el término noticia a lo largo de la historia nos daremos cuenta de que es bastante confuso en el ámbito de la comunicación masiva, aunque hay autores que han tratado de definirlo, e incluso analizar las características que debe reunir todo hecho noticiable.

    Así Van Dijk (1990), considera que en el uso diario, el concepto de la noticia en los medios implica los siguientes conceptos:

  • Nueva información sobre sucesos, objetos o personas.

  • Un programa tipo (de televisión o de radio) en el cual se presentan ítems periodísticos.

  • Un ítem o informe periodístico, como por ejemplo un texto o discurso en la radio, en la televisión o en el diario, en el cual se ofrece una información sobre sucesos recientes.

    Fontcuberta y Velázquez (1987) precisan las características básicas de la noticia argumentando que al margen del acento que unos y otros autores ponen en factores tales como novedad, interés para un público, actualidad, etc., son tres las características fundamentales que se requieren para su estudio:

  • Un hecho reciente o que se acabe de descubrir.

  • Que sea transmitido a través de un medio de comunicación masivo.

  • Y que se dirija a un gran público.

    Antonio López de Zuazo (1985), en su diccionario del periodismo, define la noticia como:

  • Hecho o acontecimiento verdadero inédito y actual, de interés general, que se comunica a un público masivo.

  • Narración de un hecho que merece ser publicado en orden de interés decreciente y de manera impersonal. Es sinónimo de información: género del Periodismo informativo.

  • Conocimiento de un hecho nuevo.

    Para este autor los factores que intervienen en la importancia periodística de un hecho son:

  • Actualidad

  • Proximidad

  • Prominencia

  • Curiosidad

  • Conflicto

  • Suspense

  • Emoción

  • Consecuencias

    Si hacemos referencia a los tipos de abordaje teóricos por los que ha pasado la noticia a lo largo de su historia, tenemos que mencionar, por un lado, y siguiendo a Tuchman (1983) el abordaje tradicional, que pone la definición de la noticia bajo la dependencia social. Para este autor, la noticia presenta a la sociedad un espejo de sus asuntos e intereses. Para cambiar la definición de la noticia de una sociedad, se infiere lógicamente, tienen que cambiar primero la estructura de la sociedad y sus instituciones.

    Y, por otro el abordaje interpretativo que pone el acento en las actividades de los informadores y de las organizaciones informativas más que en las normas sociales, puesto que no presupone que la estructura social produce normas claramente delineadas que definen lo que es noticiable.

    Esto presupone que la noticia no es un espejo de la realidad sino más bien una reconstrucción de la misma dependiendo de los intereses de los informadores y de las organizaciones informativas tal como expresan Fontcuberta y Velázquez (1987) Tenemos, por lo tanto, que son los medios de comunicación lo que dan a estos hechos la categoría de ser noticia y, por tanto, la relevancia de ser indicadores de la realidad social.

    Rodrigo Alsina (1989), también hace referencia a estos dos tipos de abordajes, aunque la definición que hace del término noticia hace que se decante más a favor del abordaje interpretativo: noticia es una representación social de la realidad cotidiana producida institucionalmente que se manifiesta en la construcción de un mundo posible.

    Si consideramos la noticia como una reconstrucción de la realidad social, podemos pretender, tal como lo hacen Fontcuberta y Velázquez (1987), que: el discurso de la noticia contiene siempre una interpretación, sea explícita o implícita. Por lo tanto debe existir una clara relación entre el contexto social de producción de las noticias y la estructura lingüística de los textos. Es por ello que el emisor de la noticia y la institución de la que emanan (canal) son de especial relevancia para el estudio de las mismas.


1.2. Análisis de contenido

    El análisis de contenido hace referencia a un conjunto de técnicas de tratamiento de información aplicable a ámbitos de naturaleza muy diversa: entrevistas, observaciones etnográficas, datos estadísticos, documentos históricos, tests, noticias, etc. Si queremos trazar una perspectiva histórica de este tipo de análisis tendremos que remontarnos medio siglo atrás, cuando la hermenéutica era el arte de interpretar los textos para fijar su verdadero significado y se interpretaban mensajes de doble sentido que requerían una explicación. También destacan la retórica y la lógica, con su método de resolución, como formas de interpretación anterior al análisis de contenido.

    Esta actitud interpretativa perdura aún en el análisis de contenido, pero actualmente se basa más en procesos técnicos de validación, no siendo ni doctrinal ni normativo (Bardin, 1977; Krippendorff, 1990).

    Será a partir de 1640 y en Suecia donde aparezca el primer caso bien documentado de análisis de contenido aplicado a material impreso; se trataba de 90 himnos de autor desconocido y para saber si había peligro de que ejercieran efectos nefastos sobre los luteranos al ser portadores de ideas perniciosas, se efectuó un análisis cuantitativo de los diferentes temas religiosos, de los valores que promovían y sus formas de aparición, así como de la complejidad estilística.

    En torno a 1888, el francés Bourbon, elaborando un trabajo sobre la "expresión de las emociones y las tendencias del lenguaje", analizó, estructuró y clasificó en palabras llenas (cargadas con sentido), un texto sagrado. (Cit. en Bardin, 1977; Krippendorff, 1990).

    Un poco más tarde, sobre 1908, Thomas y Znaniecki, utilizaron una técnica muy elemental de análisis de contenido basada en la sistematización de la lectura de cartas, diarios, informes, artículos periodísticos, para analizar la integración de los emigrantes polacos en Europa y América. (Bardin, 1977).

    Pero será en EE.UU. y a finales del siglo XIX donde el análisis de contenido va tomando forma bajo el rigor científico de la medida y se va configurando en lo que hoy día es. En esta época el material analizado es esencialmente periodístico, de ahí que la mayoría de las investigaciones realizadas en esta disciplina se refieran a las noticias en prensa. Se desencadena el encanto por la medida y el recuento (superficie de las noticias, tamaño de los titulares, evaluación de los mercados de masas y de la opinión pública...), dando lugar a lo que entonces se denominó análisis cuantitativo de periódicos. Algunos ejemplos de este tipo de análisis son los trabajos de Speed (1893) donde muestra cómo las cuestiones religiosas científicas y literarias desaparecieron de los periódicos neoyorkinos. El trabajo de Mathews en 1910, que demostró cómo los asuntos desmoralizadores ocupaban más espacio en los diarios que el resto de noticias. Street en 1909 que trató de revelar la fidelidad de las noticias periodísticas con los hechos. Wilcox en 1900 que intentó demostrar que el motivo por el que había aumentado la denominada prensa amarilla era el afán de lucro de algunos periodistas y editoriales. Fenton en1910 analizó cómo el tratamiento que se le daba a ciertas noticias periodísticas provocaba un aumento de los delitos. White en 1924 incluso llegó a la conclusión de que ese interés por el análisis del contenido de los periódicos daba lugar a un aumento de las noticias en ese medio.

    Este tipo de análisis aportó valiosas ideas como se puede comprobar en el trabajo de Tenney (1912), que planteó la necesidad de una encuesta permanente del contenido de los medios de prensa para poder establecer un control del "clima social". Este tipo de estudio llegó a su grado máximo con el trabajo realizado por Willey en 1926, titulado The Country Newspaper (Krippendorff, 1990), donde el autor trazó los orígenes y la evolución de los semanarios rurales en su competencia con los urbanos.

    Al ir surgiendo otros medios de comunicación de masas, este tipo de análisis cuantitativo se fue extendiendo paulatinamente a las noticias no escritas, es decir a las transmitidas por radio (Albig, 1938) o por televisión, que por lo general tienen bastante más audiencia. Asimismo se transfirió a otras disciplinas que hicieron de esta forma de proceder su método; destaca en este sentido la sociología que aplicó el análisis de contenido a las encuestas y a los sondeos de opinión (Woodward, 1934) así como al análisis de la comunicación para descubrir estereotipos sociales (Lippmann, 1922). Destaca en este sentido la investigación llevada a cabo por Simpson (1934) que intentó analizar la forma en que se trataba a los negros en la prensa de Filadelfia.

    Walworth (1938) comparó el tratamiento otorgado en los textos de historia de EE.UU. a las guerras en las que habían participado con el de sus ex enemigos, o el tratamiento de los nacionalismos expresados en los libros de historia (Martin, 1936).

    El interés por los símbolos políticos también jugó un papel importante en el desarrollo del análisis de contenido. Destacan en este sentido autores como McDiarmin (1937) y Lasswell (1938), que hicieron análisis de prensa y de propaganda desde el punto de vista de la teoría psicoanalítica de la política.

    Los problemas puestos de manifiesto por la Segunda Guerra Mundial acentúan el fenómeno, así proliferan en EE. UU. las investigaciones de corte político, ya que el análisis de la propaganda servía para la identificación de los grupos subversivos.

    En este entorno surgieron dos destacados centros de análisis de la propaganda: la Experimental Division for the Study of Wartime Communications de la Biblioteca del Congreso de los Estados Unidos con H. D. Lasswell y sus colaboradores, y el Foreign Broadcast Intelligence Commission, perteneciente a la American Federal Communications Commission dirigida por Hans Speier. Mientras que las investigaciones llevadas a cabo por Laswell estuvieron centradas en cuestiones básicas como el muestreo, la fiabilidad, la validez de las categorías, etc..., Speier empezó a comprender y predecir sucesos basándose en la escucha de las emisiones radiofónicas de la Alemania Nazi. Tras la contienda surge un trabajo a manos de George (1959), titulado Propaganda Analysis donde se recopilan todos los informes de guerra de ese periodo y a través del estudio de ellos se conceptualizan los objetivos y los procedimientos del análisis de contenido.

    Después de la segunda guerra mundial y tras el panorama que habían dejado autores como Berelson y Lazarsfeld, en 1948, y Berelson, en 1952, el campo de acción del análisis de contenido se va aplicando cada vez más a otras disciplinas.

    Destaca en este sentido el trabajo de Lasswell (1941) sobre medios de comunicación y el de Gerbner, Holsti, Krippendorff, Paisley y Stone (1969) sobre la necesidad de utilizar "indicadores culturales".

    Dentro de la psicolingüística, destaca el análisis de la novela Black Boy llevado a cabo por R. K. White en 1947, donde se utiliza el análisis de contenido a través de un análisis estadístico de valores.

    En el campo de la psicología destacan los trabajos realizados por Janis y Fadner (1965, cit. en Krippendorff, 1990) sobre el coeficiente de desequilibrio, los experimentos psicológicos sobre transmisión de rumores de Allport y Fadner (1940), así como las investigaciones llevadas a cabo por Baldwin (1942) sobre las "Cartas de Jenny", que publicó en su Personality Structure Análisis, y que también interesaron a Allport (1946, cit. en Krippendorff, 1990) como un caso práctico e interesante para el estudio de la personalidad. Paige (cit. en Bardin, 1977) lo emplea en 1966 utilizando las prestaciones que el ordenador da a este tipo de análisis.

    Proliferan los estudios de corte cualitativo en forma de respuestas a las preguntas abiertas de los tests, en este sentido el análisis de contenido se nos presenta como una técnica complementaria al uso de los tests. En el ámbito de la comunicación destaca el estudio de Bales Interaction Process Análisis (1950, cit. en Krippendorff, 1990) sobre intercambio verbal en pequeños grupos.

    La pedagogía orientó sus esfuerzos en el estudio del material educativo así destacan Flesh (cit. en Krippendorff, 1990), que entre 1948 y 1951 realizó inferencias sobre los procesos de lectura para comprender las tendencias de carácter político, actitudinal y valorativo que pueden aparecer en los libros de texto.

    La antropología también adoptó esta forma de análisis para aplicarlo al estudio de los mitos, leyendas, acertijos etc. dando como resultado el análisis componencial de la terminología del parentesco. Los historiadores también vieron en el análisis de contenido un aliado muy útil para sus investigaciones basadas en el estudio de documentos históricos.

    En 1955, el Social Science Research Council´s Committee on Linguistics and Psychology organizó varios congresos sobre análisis de contenido dado el interés que había suscitado este tipo de análisis en casi todas las disciplinas. Las aportaciones de los participantes fueron recopiladas por I. de Sola Pool (1959) en su volumen Trends in Content Analysis. Se desarrollan nuevas consideraciones, tanto epistemológicas (modelo comunicacional instrumental versus representacional), como metodológicas (análisis cuantitativo versus cualitativo).

    A partir de esta fecha, el análisis de contenido toma otro cariz; la exigencia de la objetividad se flexibiliza, así la cientificidad no se confunde ya con el rigor de la minuciosidad en el análisis de frecuencias y además toma conciencia de su función: la inferencia, ya sea con indicadores simples de frecuencias como por indicadores más complejos (análisis de las contingencias).

    Todos estos estudios nos muestran cómo, en definitiva, estamos revisando materiales integrados por comunicaciones ya sean orales (radio, televisión) o escritas (documentos oficiales, libros, periódicos, documentos personales, informes de entrevistas…) que sirven a los investigadores para comprender y explicar unas conductas unas opiniones y unas acciones.

    No podemos cerrar este apartado sin destacar que a partir de 1960 se produjo un considerable interés por el uso del ordenador como herramienta que permitía manejar un número considerable de datos y, por consiguiente, es de destacar el gran número de investigaciones sobre análisis de contenido que utilizan este medio. Ni que decir tiene que los progresos de trabajos que utilizan análisis de contenido y ordenador van a ir aparejados al desarrollo del software adecuado. Así, los métodos tradicionales de análisis de datos cualitativos consistían en la utilización de ficheros o carpetas donde se iba archivando la información de acuerdo a unos criterios predeterminados, para ello se hacía necesario ir recortando y pegando textos, reescribir frases, marcar con lápices de colores las distintas unidades o partes relevantes, etc... Tarea nada fácil debido al gran número de datos con los que se contaba ya que aunque se trabaje con un esquema predeterminado y sistemático, ha de invertirse mucho tiempo y esfuerzo. Aún hoy nos podemos encontrar libros donde se describe con todo detalle el proceso para analizar datos cualitativos con papel y tijeras. (Taylor y Bogdan, 1986; Bogdan y Biklen, 1982; Lofland y Lof land, 1984)

    Probablemente fueron Sebeok y Zeps (1958) quienes primero llevaron a cabo un análisis de contenido con este procedimiento. Destaca también la obra de Hays (1960, cit. en Krippendorff, 1990). Automatic Content Análisis donde se explora la posibilidad de crear un sistema computerizado para el análisis de documentos políticos.

    En 1966 aparece el libro titulado General Inquirer de Stone, Dunphy, Smith y Ogilvie (cit. en Krippendorff, 1990). Se trata del primer trabajo en que se relata cómo es una investigación de análisis de contenido por ordenador y donde se intenta responder a las dificultades técnicas que esta forma de análisis conlleva.

    El uso del ordenador en el análisis de contenido se trasladó también a otras disciplinas como la psicología, que se interesó por simular la cognición humana, destacando en este sentido los trabajos de Abelson en 1963 y Newel y Simon en 1963. (cit. en Krippendorff, 1990). También la lingüística se vio influenciada por la técnica dando lugar a estudios sobre análisis sintáctico, interpretación semántica de expresiones lingüísticas etc. Y la inteligencia artificial centró sus estudios en la creación de máquinas que pudieran comprender los lenguajes naturales.

    En 1967 la Escuela de Comunicaciones de Annenberg organizó un congreso en el que participaron numerosos investigadores cuyas comunicaciones se publicaron en 1969 bajo la dirección de G. Gerbner, O. R. Holsti, K. Krippendorff, W. J. Paisley y P. J. Stone (Citados en Krippendorff, 1990). Los debates giraron en torno a las dificultades para registrar datos no verbales (visuales, vocales y musicales), la necesidad de crear categorías estándar, el problema de las inferencias, en definitiva problemas metodológicos y no computacionales.

    Pero a pesar del avance informático, es de destacar que los métodos de análisis existentes se basan en su mayoría en análisis de datos cualitativos textuales debido a que los programas informáticos existentes son casi todos procesadores de textos (Word, WordPerfect...), que aunque ofrecen cierta ayuda, al no haber sido diseñados para el análisis de datos cualitativos, sólo facilitan el trabajo a la hora de la reducción y recuperación de los mismos (Carro, 1993). Además, los métodos que se utilizan en el análisis cualitativo son bastantes diferentes a las técnicas que los ordenadores pueden soportar (Richards y Richards, 1994:445).

    Durante la década de los ochenta podemos hablar de "análisis asistido por ordenador", gracias a la utilización de éste en tareas relacionadas con la investigación. En la actualidad se cuenta con un nutrido grupo de programas informáticos para el manejo de datos cualitativos que empiezan a ser competitivos y presentan un entorno de trabajo cómodo para el investigador.

    Richards y Richards (1991), distinguen cuatro tipos diferentes de programas informáticos:

  • Los que investigan los textos.

  • Los que hacen posible almacenar datos.

  • los que permiten la codificación y recuperación.

  • Los que posibilitan el análisis de los conceptos.

    Por su parte Tesch (1991), divide a los programas en tres grandes grupos:

  • Los que investigan el lenguaje.

  • Los orientados al análisis de datos cualitativos de carácter descriptivo-interpretativo.

  • Los diseñados para la construcción de teorías.

    Entre los programas informáticos específicos para el análisis de datos cualitativos, Richards y Richards (1994) distinguen cinco grupos que se caracterizan por la representación de la información y los métodos de procesamiento:

  • Los programas para la codificación y recuperación de textos.

  • Los sistemas para la construcción de teorías basados en normas.

  • Los sistemas basados en la lógica.

  • El enfoque basado en la jerarquización o indización.

  • Los sistemas de redes conceptuales.

    Dentro del primer grupo nos encontramos con The Ethnograph (Seidel, Kjolseth y Seymour, 1988), uno de los programas más difundidos y conocidos que en su versión 4.0 dispone de unos formatos que permiten añadir información sobre el contexto.

    En el segundo grupo podemos destacar el programa informático HyperRESEARCH (Hesse-Bier 1991). Lo que distingue a este programa de otros es la utilización de las técnicas de inteligencia artificial para comprobar hipótesis utilizando la lógica Booleana.

    Los programas basados en la lógica utilizan el lenguaje del ordenador PROLOG para realizar sus operaciones. Destaca dentro de este tipo el QUALOG (Shelly y Sibert, 1985) y la versión para ordenadores personales, el AQUAD (Günter, 1991, cit. en Rodríguez Gómez, G. et al. 1995). La principal característica de éste programa es la forma de recuperación de la información a través de las doce estructuras de hipótesis que ofrece, además de las que el investigador quiera añadir. También permite explorar la causalidad a través del algoritmo de Quine-McClusky.

    Los sistemas jerárquicos, permiten representar la información a través de árboles invertidos, dando una visión completa sobre las relaciones que mantienen los datos. Destaca el programa NUDIST (QSR, 1994) que en unión con el programa Cvideo (ENVISIONOLOGY, 1992), permite realizar la transcripción y codificación de imágenes procedentes de videocassettes.

    En el quinto grupo destaca el programa informático ATLAS/ti (Mühr, 1991) que constituye una herramienta sistemática orientada a la representación gráfica de las relaciones existentes entre los datos a través de un editor de redes.

    Como se puede comprobar, los programas diseñados específicamente para el análisis de datos cualitativos facilitan el trabajo pero no operan sin la dirección del investigador, los criterios para la selección de unidades textuales, la importancia de unos tópicos sobre otros, la categorización, la asignación de determinados códigos, son tareas propias del analista.

    Como se ha podido comprobar en la revisión precedente, existen programas informáticos que nos facilitan la tarea a la hora de analizar datos cualitativos textuales, sin embargo existe muy poca investigación en lo referente a noticias no escritas.

    Investigaciones más recientes intentan compaginar análisis de contenido con las ventajas que suponen los programas informáticos, destacan entre ellas:

    Martin, y Oshagan (1997) utilizaron análisis de contenido para estudiar los marcos narrativos de la televisión estatal y de las noticias de prensa escrita en el tratamiento del conflicto producido por el cierre de varias fábricas de la empresa General Motors en los Estados Unidos en 1991. Estos autores mostraron cómo las noticias emitidas e impresas ejercen influencia en las relaciones sociales de hegemonía y cierta complicidad para hacer ver a la opinión pública que la reconversión industrial es inevitable.

    Otras investigaciones recientes, en las que se ha utilizado el análisis de contenido de manera predominante con material audiovisual (casi siempre televisión), son las de Johnson (1996), Chavez y Dorfman (1997), Dorfman, Woodruff, Chavez, y Wallack, (1997) y Potter, Warren, Vaughan, Howley, Land, y Hagemeyer (1997). En la mayoría de los casos el tema genérico de análisis está asociado a la violencia.

    Johnson (1996) revisó cerca de cien programas informativos de televisión, en un periodo de seis meses de las cadenas nacionales, locales, independientes y por cable, para determinar el tratamiento que las malas noticias (violencia, conflicto, sufrimiento,...) tenían en los mismos.

    Chavez y Dorfman (1997) pudieron describir las relaciones entre latinos, violencia y la lengua española utilizada en las noticias de las televisiones. Estos autores revisaron treinta y seis informativos completos de las cadenas en lengua hispana de California y, entre otros descubrimientos obtenidos por medio del análisis de contenido, concluyeron que las noticias de televisiones hispanas sobre juventud y violencia (enmarcadas temáticamente con contextos económicos, políticos y sociales) eran tres veces y media más frecuentes que las noticias en lengua inglesa.

    En el mismo estado de California, Dorfman y sus colaboradores (1997) aplicaron análisis de contenido a 214 horas de noticias locales de televisión con el objetivo de conocer la estructura del debate público y político sobre la violencia juvenil. Entre los múltiples hechos que el análisis de contenido permitió poner de manifiesto, destaca la conclusión general de los autores acerca de lo poco considerada que se encuentra la importante contribución de factores etiológicos a las historias de violencia.

    Potter y colaboradores (1997) analizaron 65,5 horas de informativos de televisión de cadenas locales y nacionales para tratar de determinar el significado de actividad antisocial que se presenta en las pantallas y hasta qué punto los patrones de actividad antisocial de la programación se correspondían a patrones en la vida real.

    En otras investigaciones, el análisis de contenido va acompañado de otros procedimientos de recogida o tratamiento de la información, como por ejemplo las encuestas (Roberts y Grossman, 1990), la entrevista (Kepplinger y Daschmann, 1997), o no se hace directamente sobre el material audiovisual sino sobre las opiniones que sugiere en los televidentes el visionado del mismo (Chew, 1992).

    Roberts y Grossman (1990) utilizaron los resultados del análisis de contenido de las noticias de los medios de comunicación, que rara vez ayudan a la prevención de los delitos, con los de una encuesta realizada en Canadá, con el propósito de conocer la reacción del público ante la participación activa en programas de prevención de delitos.

    Kepplinger y Daschmann (1997) compararon el contenido objetivo de noticias, obtenido a través de análisis de contenido, con el significado subjetivo de esas mismas noticias, obtenido mediante entrevistas, para concluir que los televidentes interpretan la información de los acontecimientos nuevos en el contexto de los precedentes.

    Chew (1992) aplicó el análisis de contenido a la información que demandaban 608 personas que visionaron noticias graves frente a otras de carácter rutinario. Las primeras frente al resto, producen en el público más necesidad de preguntas relacionadas con la toma de decisiones, con la formación de opiniones, de contraste y precisión.

    En el terreno político, la obra de Cavanaugh (1995) supone también una interesante aplicación del análisis de contenido a los medios de comunicación. Este autor pretendía determinar cómo los votantes se ven influenciados por las agresivas campañas electorales presidenciales de 1992 en los medios, y construyó una teoría del procesamiento de la información aplicable a los votantes ante la fuerza de los contenidos creativos de las noticias y del efecto de los contenidos de los medios.

    Teniendo en cuenta todo lo anteriormente expuesto, hay que considerar que cuando se habla del estudio de la comunicación nos encontramos, siguiendo a Berelson (cit. en Grawitz, 1975), en presencia de un emisor que lanza un mensaje con un contenido concreto y una forma determinada, esta información está emitida para lograr una finalidad y se dirige a uno o varios receptores.

    ¿Quién dice?, ¿qué?, ¿a través de qué medio?, ¿a quién?, ¿con qué efectos? Este esquema que proponían para el estudio de la comunicación Laswell y Leites en 1949 (cit. en Grawitz, 1975), parece bastante útil dentro del análisis de contenido.

    A lo largo de esta investigación nos vamos a centrar en el ¿cómo?, es decir; el estudio de la forma o de los medios por los cuales un mensaje trata de producir una impresión; en definitiva, sería estudiar el aspecto más o menos persuasivo de la comunicación. Esto es, estudiar algo cualitativo y subjetivo desde un punto de vista cuantitativo ya que se analizarán los elementos que concurren para dar esa impresión y, por tanto, persuadir a los receptores a que reaccionen de una determinada manera. Así se tendrá en cuenta la elección de las palabras (categorías gramaticales), el número de repeticiones (unidades de registro), el tiempo dedicado a cada titular o noticia, el orden de aparición de la información, etc…


2. Metodología

2.1. Hipótesis

    Al margen de los países totalitarios en los que, salvo casos recientes, la información está controlada institucionalmente, en los países democráticos se reconoce el principio de la libertad de prensa como premisa de la libertad de expresión.

    El artículo nº 20 de nuestra Constitución en su apartado d, reconoce y protege el derecho a comunicar o recibir libremente información veraz por cualquier medio de comunicación.

    Así las noticias que se emiten en los informativos de las diferentes cadenas televisivas deberían dar en esencia la misma información. Y el público debería recibir los mismos mensajes aunque procedieran de canales diferentes, pero el control que ejerce el capitalismo en la creación de un organismo de prensa o televisión, hacen que esa libertad de expresión parezca puramente retórica.

    Es por ello que, cuando se oye una misma noticia en diferentes cadenas televisivas, queda la sensación de que poseen diferencias notables y de que no son tan iguales como a simple vista parecen ya que el tratamiento que se le ha dado difiere dependiendo de la cadena elegida, y es que la intencionalidad informativa está patente no sólo en la estructuración de la programación sino también en la construcción de la noticia en sí.

    El estudio de esta contingencia es precisamente lo que se plantea en la siguiente investigación siendo nuestra hipótesis de partida estimar, a través del análisis de contenido, las diferencias en el tratamiento de la comunicación de un mismo hecho en las diferentes cadenas televisivas y comparar esos resultados con otras técnicas de análisis para comprobar su validez.

    El procedimiento a utilizar en esta investigación será grabar en vídeo los informativos, transcribir los textos íntegros y someterlos a un análisis de contenido, ya que esta técnica de análisis nos permite, en este caso, pasar de datos que se transmiten mediante un medio audiovisual (noticias), usando técnicas observacionales (grabación en vídeo de los informativos de diferentes cadenas), a una categorización (cuantificación) de esos datos con fines clasificatorios para su posterior análisis e interpretación.

    De los resultados obtenidos podremos inferir datos acerca del tratamiento diferencial de las fuentes de comunicación, que en este caso serían las diferentes cadenas televisivas. Posteriormente analizaremos las noticias con otras técnicas para comparar resultados y poder comprobar la validez o no de dichas técnicas a la hora de analizar material audiovisual.


2.2. Objetivos

    El objetivo general que persigue es: Comprobar, teniendo en cuenta que existen diferencias significativas en cuanto a la presentación del contenido de las noticias por parte de las diferentes cadenas, si se pueden utilizar otras técnicas de análisis que concluyan los mismos resultados obtenidos a través de un análisis de contenido.

    Los objetivos específicos que se desprenden del anterior son:

  • Analizar si existen diferencias significativas en cuanto a la presentación del contenido de las noticias teniendo en cuenta los titulares y una noticia en común

  • Establecer categorías para la comparación del contenido de las diferentes cadenas teniendo en cuenta los titulares y una noticia en común

  • Analizar el peso relativo de cada noticia con respecto al global en función del tiempo.

  • Estudiar la relación de los diferentes tiempos de duración de las noticias en las diferentes cadenas.

  • Analizar las diferencias de los promedios de duración de las noticias en función de las diferentes cadenas.

  • Determinar si las noticias son diferentes en cuanto al tiempo según el tratamiento que le dan las diferentes cadenas.

  • Estudiar posibles relaciones o patrones característicos de las cadenas en función de las categorías gramaticales y unidades de expresión empleadas.


2.3. Muestra

    Los datos se obtuvieron grabando los informativos de un día del calendario, en concreto el 11 de enero de 1999. De todos los telediarios producidos por las diversas cadenas se seleccionaron los que se emiten en la franja horaria de mayor audiencia (20.00-24.00). Estos datos aparecen recogidos en la siguiente tabla.


Tabla 1
Fuente: AIMC (Asociación para la investigación de Medios de Comunicación).
Datos de promedio de audiencia durante 1998 en minutos por semana.

    En esa franja horaria, además, todas las cadenas emiten un informativo de formato similar por lo que la comparación se hacía más factible.

    Los telediarios seleccionados han sido (segundas ediciones generalmente) de las dos cadenas públicas estatales (TVE 1 y TVE 2), y de las tres cadenas privadas de ámbito nacional (Antena 3, Tele 5 y Canal +). Las cadenas autonómicas de la Comunidad Andaluza, que fueron incluidas en la muestra en un principio (Canal Sur Televisión 1 y 2), fueron finalmente desestimadas al poseer formatos singulares que las hacían muy poco comparables al resto (sobre todo debido al hecho de las desconexiones provinciales que realizan).

    Para la recogida de la muestra seleccionada se contó con un equipo de siete colaboradores que simultáneamente grabaron en magnetoscopio la emisión completa de cada uno de los telediarios de las diversas cadenas (TVE 1, TVE 2, Canal Sur, Canal Sur 2, Antena 3, Tele 5 y Canal +). En total se grabaron 4 horas, 53 minutos y 51 segundos. Como finalmente las emisiones de Canal Sur y Canal Sur 2 fueron desestimadas, el tiempo registrado se redujo a 3 horas, 23 minutos y 50 segundos, equivalente a 25 sesiones de observación, que supone 215 horas de observación y transcripción. A continuación se estructuró cada telediario contabilizando los tiempos globales y de cada noticia como puede verse en las tablas del anexo nº 1

    De todo el material descrito y recogido en las tablas del anexo nº 1, para realizar un análisis de acuerdo con los objetivos de la investigación, se seleccionaron los titulares de los diferentes telediarios ya que al ser noticias cortas, en cuanto al tiempo que se le dedica, se pensó que la información debía estar muy bien seleccionada y llena de matices que hicieran perceptibles las diferencias entre las cadenas y una noticia de actualidad común (Caso "Gil"); todo ello para comprobar si esas diferencias, en cuanto al tratamiento, persisten cuando las cadenas no se ven tan limitadas por el tiempo. Este material específico (titulares y noticia), recogido originariamente en formato vídeo, fue pasado a audio y posteriormente trascrito íntegramente a texto con la ayuda de un dictáfono.

    En el anexo nº 2 se recoge la transcripción completa realizada de los titulares y de la noticia común.


2.4. Variables

    Con el fin de organizar la información para ulteriores análisis, se utilizaron indicadores léxicos, de orden formal y de género gramatical.

    En este sentido se utilizaron como unidades de registro:

  • La palabra (indicador léxico), para medir la variedad/pobreza del vocabulario,

  • Un sistema de categorías de género gramatical, para evaluar la redundancia y el estilo del discurso (dinámico vs. descriptivo): sustantivos, adjetivos, adverbios, verbos, preposiciones, conjunciones, artículos. Así como estudiar posibles relaciones o patrones característicos de las cadenas en función de estas categorías gramaticales.

  • El tiempo dedicado a cada noticia para determinar la importancia considerada por las diferentes redacciones a cada tópico de interés.


2.5. Tratamiento de la información

    Para el tratamiento de la información registrada se ha utilizado el análisis de contenido (Bardin, 1986; Krippendorf, 1990). En particular se han seleccionado algunos indicadores propios del análisis de la expresión para analizar el plano formal, como son el TTR (type token ratio), la redundancia y el estilo del discurso (Roche, 1971).

    El TTR permite medir la variedad o la pobreza del vocabulario empleado

    Cuanto más alto es el resultado, mayor variedad o diversidad o riqueza de vocabulario manifiesta el texto.

    La redundancia (IR) se obtiene a partir de un cociente entre los verbos y los sustantivos en relación con los adjetivos y los adverbios, y sirve para medir la estereotipia o la repetición.

    Cuanto más alto es el resultado, mayor redundancia manifiesta el texto.

    El análisis del estilo del discurso (ED) puede realizarse comparando el número de verbos y adverbios en relación a los sustantivos y adjetivos, y sirve para evaluar si el lenguaje utilizado es más o menos descriptivo o dinámico.

    El estilo es dinámico si cuanto más alto es el resultado y descriptivo cuanto más bajo sea el cociente.

    Para complementar el análisis de contenido se han realizado otros análisis de corte cuantitativo. Concretamente:

  • Un análisis exploratorio de todo el material seleccionado y en particular de los titulares y de la noticia común, para ver el peso relativo de cada noticia con respecto al global (duración), y de cada categoría gramatical con respecto a cada una de las cadenas.

  • Un análisis de varianza de muestras independientes (ANOVA), para observar posibles diferencias de los promedios de duración de las noticias en función de las diversas cadenas de televisión.

  • Un análisis de varianza de medidas repetidas (MANOVA), junto con las correspondientes técnicas de análisis no paramétrico de muestras relacionadas (Q de Kendall y F de Friedman), para evaluar si las diferentes noticias eran tratadas de una forma diferente o no (en cuanto al tiempo dedicado) en las diferentes cadenas de televisión.

  • Un análisis log-lineal para estudiar posibles relaciones o patrones característicos de las cadenas en función de las categorías gramaticales y unidades de expresión utilizadas.

  • Un análisis de generalizabilidad para calcular las posibles fuentes de error, estimando los diversos componentes de la varianza y así asegurar la precisión de los resultados a un universo de generalización o por el contrario rediseñar el trabajo con el fin de reducir dichas fuentes de error en investigaciones futuras.

    Para el análisis de contenido se ha utilizado el programa Microsoft WORD 98, para el tratamiento de texto y para los análisis cuantitativos se ha utilizado el paquete SPSS y el programa G.T. v. 2.0.E de Pierre Ysewijn para el estudio de la generalizabilidad.


Lecturas: Educación Física y Deportes · http://www.efdeportes.com · Año 9 · Nº 63   sigue Ü