Música y Medios Audiovisuales: Un Recorrido Teórico y Práctico

Clasificado en Plástica y Educación Artística

Escrito el en español con un tamaño de 120,04 KB

Introducción: La Música en la Sociedad y los Medios Audiovisuales

TEMA 1. El papel de la música en la sociedad ha sido objeto de numerosas investigaciones, especialmente en su relación con la publicidad y los medios audiovisuales. Esta unidad didáctica explora el uso de la música en el cine y otros medios, desde los primeros textos teóricos hasta la situación actual.

1.1 Estudios Teóricos sobre Música y Sociedad

Para comprender la importancia de la música en los medios de comunicación, es crucial repasar diversos acercamientos investigadores. Desde una perspectiva psicológica, se ha demostrado que la música posee funciones que ayudan a crear significados en los medios. Figuras como Aristóteles, en la Antigua Grecia, consideraban que la música debía utilizarse en la sociedad con fines específicos e influir en las personas, priorizando su presencia en la educación. Investigaciones recientes, como las de Schäfer T., Sedlmeier P., Städtler C., y Huron D., exploran las funciones psicológicas de la música y su influencia en la sociedad.

Uno de los pilares de las investigaciones teóricas es considerar la música como un elemento de cohesión social, como se evidencia en canciones de guerra, himnos nacionales y canciones regionales. Investigadores como Schubert destacan el potencial de la música para producir placer. Desde el punto de vista antropológico, Merriam propone diez funciones sociales de la música, incluyendo la expresión emocional, la comunicación y la representación simbólica. Los medios de comunicación explotan estas funciones para llegar al público objetivo, ya sea acompañando un discurso narrativo o captando clientes. En general, los acercamientos teóricos señalan numerosas funciones sociales de la música, aunque se basan principalmente en planteamientos teóricos y no en datos empíricos.

1.2 Estudios Empíricos sobre Música y Sociedad

En contraste, otros estudios buscan conclusiones a partir de casos reales, observando cómo funciona la música y las personas cuando interactúan con ella. Esto permite acotar las funciones potenciales de la música. Por ejemplo, Schäfer et al. citan a Boer, quien clasifica las funciones de la música basándose en un estudio con estudiantes de varios países, identificando dimensiones como emoción, amistad, familia, vía de escape, música de fondo, danza, concentración, valores, política y cultura. En las investigaciones empíricas, cuatro categorías aparecen recurrentemente: funciones sociales, funciones emocionales, funciones cognitivas y funciones psicológicas.

En cuanto a la utilización de la música en los medios, la mayoría de los estudios se centran en la música de cine. Schäfer et al. citan los estudios de Maas, que se enfoca en la sintáctica, la semántica y el uso mediático de la música. Estos estudios concluyen que la música puede tener entre 10 y 47 funciones diferentes. Un estudio de Melton y Galician identificó 15 funciones de la música en la radio y en los vídeos musicales. Las principales conclusiones de estos estudios, según Schäfer et al., es que la gente escucha música por tres razones fundamentales: como compañía, para generar un estado de ánimo positivo y por su importancia social.

2. Investigaciones sobre la Música en los Medios

La mayoría de los estudios sobre la utilización de la música en los medios se centran en la música de cine. Este campo ha comenzado a investigarse recientemente dentro de la musicología, siendo introducido en los planes de estudios universitarios desde 2010 aproximadamente. Los primeros estudios sobre música para audiovisuales datan de la década de los ’90 del siglo XX, y en 2008 se publicó en España la primera tesis doctoral sobre estos temas. Las conclusiones de estas investigaciones pueden extrapolarse a la televisión, especialmente a productos audiovisuales narrativos como series. La radio y la televisión tienen formatos propios, como los programas en directo, donde la música también desempeña diversos roles.

El estudio de la música en los medios de comunicación se ha abordado en otras disciplinas universitarias como Comunicación Audiovisual, Historia del Cine e Historia del Arte. Sin embargo, la cuestión musical a menudo queda en segundo plano, siendo necesario recurrir a otros medios para un análisis más profundo desde el punto de vista musical. Hay múltiples razones por las cuales no se ha indagado tanto en el estudio de la música cinematográfica, incluyendo la falta de atención de los compositores a su propia música y la falta de una metodología adecuada para investigar este tipo de música como una rama más de la Musicología.

2.1 Fuentes

Para abordar el estudio de la música en los medios audiovisuales, debemos partir de una serie de fuentes, que varían según la disciplina que estemos investigando. Las fuentes primarias audiovisuales incluyen:

  • En la música para cine, la película.
  • En la música para televisión, los archivos de la cadena (RTVE, Antena 3, Tele 5, Cuatro, La Sexta, autonómicas, etc.).
  • En la música para radio, los archivos de la cadena (emisora).
  • En la música para publicidad, los spots publicitarios.
  • En la música para videojuegos, los propios videojuegos.
  • Grabaciones audiovisuales en varios soportes.
  • Grabaciones sonoras en varios soportes.
  • Grabaciones comerciales (CD’s, archivos digitales, etc).

En España, los principales centros de conservación son:

  • Filmoteca española (Madrid)
  • Filmoteca de Andalucía (Córdoba)
  • Filmoteca de Castilla y León (Salamanca)
  • Filmoteca de Cataluña (Barcelona)
  • Instituto Valenciano de Cultura (Valencia)

Además de estos centros públicos, las productoras privadas y las distribuidoras también disponen de copias, aunque la conservación real está a cargo de los organismos públicos. Por otra parte, tenemos las fuentes escritas, como las partituras originales, los catálogos musicales de cine mudo, los guiones con indicaciones sobre la música, las notas de trabajo entre el director y el compositor, las *cue sheets* y el *spotting*.

2.2 Modelos Metodológicos

Existen diferentes modelos metodológicos en las investigaciones de música para cine, medios audiovisuales y publicidad. Según Pachón Ramírez, podríamos distinguir los siguientes:

  • Monografías biográficas que se centran en el estilo compositivo.
  • Análisis fílmico dentro de investigaciones más amplias o de carácter más general.
  • Estudios sobre las relaciones entre música y cine, desde un punto de vista del significado y la expresión.
  • Publicaciones que tratan el tema directamente, revistas de referencia que contienen secciones dedicadas a la música de cine, o monográficos.
  • Investigaciones destinadas a recuperar textos olvidados, grabaciones que se creían perdidas o partituras que han permanecido en archivos personales largo tiempo.

Pachón Ramírez plantea que no hay apenas estudios que aborden el análisis puramente musical en España, y que la historia de la música española tampoco suele aludir a compositores de cine. Como ejemplo de nuevas investigaciones más centradas en la música, puedes acceder a la Tesis de Alejandro Román y al libro de Sergio Lasuén sobre la armonía de compositores españoles de cine.

3. Principales Autores

Los estudios de música de cine constituyen la inmensa mayoría del corpus teórico dedicado a este tema. Muchas de sus reflexiones y conclusiones se pueden aplicar a otros medios como la televisión, la publicidad o los videojuegos.

3.1 Kurt London

Su libro *Film Music: A Summary of the Characteristic Features of Its History, Aesthetics, Technique; and Possible Developments* fue pionero en dedicarse íntegramente a la música para cine. El libro está dividido en dos bloques: la historia de la música de cine y cuestiones técnicas y de composición. London plantea tópicos que han quedado como verdaderos a lo largo de la literatura y estudios sobre música de cine, como la idea de que la música cinematográfica surgió para tapar el ruido de los proyectores y que la única música de cine válida es aquella que pasa inadvertida para el espectador.

3.2 Adorno y Eisler

Su libro está considerado como el padre de las investigaciones serias acerca de la música para cine. El libro es producto de la situación que se vive en los años ’30 en Europa y en especial en la Alemania nazi. Las conclusiones a las que llegan son negativas, puesto que piensan que la música que se utiliza en el cine es anacrónica, y no consistente con un invento tan reciente, y proponen utilizar música vanguardista europea para llegar a otros niveles de creatividad musical y elevar además la calidad. En cualquier caso, es una radiografía muy interesante de la situación de la música de cine en aquella época, se analiza la utilización de leitmotivs y el lenguaje postromántico pero con un matiz político: para estos autores este lenguaje postromántico representa todos los males del capitalismo y de una sociedad burguesa sometida.

3.3 Sergei Eisenstein

El afamado director soviético escribió numerosos textos acerca de la concepción que tenía del cine. Fue un teórico decisivo en la historia del cinematógrafo, que se centró en la importancia del montaje y el sonido para formular sus hipótesis. En su libro *El sentido del cien* (1942), expone su concepción del cine como producto audiovisual global, dando igual importancia tanto al aspecto visual como al sonoro. Aplica la teoría del tercer elemento: al juntar una serie de cosas o se construye algo en torno a esos elementos, se crea algo nuevo que tiene su propia idiosincrasia. Para Eisenstein y los teóricos del cine soviético, el ritmo y la temporalidad son muy importantes, de ahí que consideren el montaje como un parámetro a tener muy en cuenta.

3.4 Michel Chion

Alumno de Pierre Schaeffer y compositor de música electroacústica y música concreta, es también profesor, escritor, y crítico de cine. Le interesan los mecanismos de escucha musical y cómo percibimos la imagen y el sonido como un todo. Acuña el término “audiovisión”, a partir de una serie de experimentos visuales y sonoros, aludiendo al fenómeno que se produce cuando recibimos un estímulo audiovisual y lo percibimos de diferente manera a como percibiríamos cada elemento (visual y sonoro) por separado. Algunos de sus conceptos más interesantes son:

  • Música empática/anempática
  • Escucha visualizada
  • Música de foso o no diegética/música de pantalla o diegética

3.5 Nicholas Cook

Musicólogo y profesor en la universidad de Cambridge que comenzó investigando música clásica, y que en las últimas décadas se ha dedicado a estudiar la música para audiovisuales. Es el autor de *Analysing Musical Multimedia* en el que trata la música en varias disciplinas: cine, televisión, videoclips, publicidad, ópera filmada, etc. Crea una teoría para analizar todo este tipo de música, y parte del concepto de multimedia, que define como la conjunción de varios medios en igualdad de condiciones en un mismo producto. Hay diferentes modelos multimedia si atendemos a las relaciones que se dan entre los elementos:

  • Relaciones de similitud (coherencia, concordancia)
  • Relaciones de diferencia (contraste, contradicción)

3.6 Philip Tagg

Musicólogo y autor de numerosos estudios analíticos, cuya línea principal de investigación es la semiótica musical. Compositor con sólida formación clásica. Su aportación es decisiva y revolucionaria puesto que se basa en la importancia y la necesidad de la interdisciplinariedad para abordar la música en audiovisuales. Con su Tesis *Kojak – 50 Seconds of TV Music – Towards the analysis of affect in popular music* establece las bases para una nueva perspectiva en la musicología. El sistema analítico de Tagg se basa en el método comparativo, de tal forma que cuando un oyente escucha música el significado que le atribuye está estrechamente relacionado con las músicas que ha escuchado previamente. Para realizar sus análisis semiótico-musicales, se apoya en el musema, que se podría definir como la unidad básica de significado musical.

3.7 Autores Españoles

La investigación de la música para audiovisuales cada vez interesa más en nuestro país y ya son varios los simposios y congresos que existen en torno a ello, siendo el más destacado el Simposio “La Creación Musical en la Banda Sonora”, impulsado desde la Universidad de Salamanca por Matilde Olarte. Destacan autores como Teresa Fraile, Alejandro Román y Josep Lluís i Falcó, así como divulgadores como Joan Padrol, Roberto Cueto o Conrado Xalabarder.

4. Otros Estudios y Recursos

La primera revista académica internacional que se dedica al estudio de la interacción entre la música y los medios audiovisuales es *Music, Sound, and the Moving Image*. Esta revista aborda desde varios puntos de vista y metodología el tratamiento de la música en los medios, incluyendo estudios musicológicos, análisis musical, estudios cinematográficos, estudios de música popular, teoría cultural, estética, semiótica, sociología, comercialización, estudios de sonido y psicología musical.

Preproducción, Rodaje y Postproducción en la Música Audiovisual

TEMA 2. Cualquier producción audiovisual, ya sea cinematográfica, televisiva, o publicidad, tiene tres fases: la preproducción, el rodaje y la postproducción. Opcionalmente, podríamos incluir la exhibición como la fase final, en la que el producto llega al público. Cuando se crea un producto audiovisual, debemos tener claro de que se trata de un arte colectivo, y que cada una de las fases va a requerir la participación de varios artistas bajo la supervisión del director o realizador.

1.1 Guion Literario

Se trata del boceto de la película, capítulo de serie, spot publicitario, etc. Se parece al libreto de una obra de teatro, y contiene el argumento dividido en escenas, que es la unidad mínima de acción, o en secuencias. Cada escena viene precedida por su título y aparece explicado lo que sucede en la acción, la descripción de los personajes que intervienen y los lugares donde se desarrolla la acción.

1.2 Guion Técnico

Partiendo del guion literario se elabora este guion técnico en el que el director plantea cómo va a llevar a cabo la narración de la historia bajo su punto de vista. Aquí ya aparecen todos los recursos técnicos que van a ser utilizados para conseguir ese objetivo. Se numeran las escenas y el director escribe qué planos quiere para cada una de ellas. También aparecen indicaciones técnicas acerca del tipo de objetivos que se van a utilizar, cómo se coloca o se mueve la cámara, la posición de la misma o dónde se ubican los efectos especiales.

1.3 Casting y Búsqueda de Localizaciones

El casting es el proceso de búsqueda de los actores y actrices que van a participar en la producción audiovisual. Están divididos en varias categorías según la importancia que tengan en la narración: personajes principales, secundarios, de reparto, episódicos, estrellas invitadas, figurantes, extras y dobles. Por otra parte, la búsqueda de localizaciones se lleva a cabo por el equipo de producción y normalmente una persona de confianza que tiene clara la visión del director busca esos espacios que son necesarios para rodar o grabar la película o producción audiovisual.

2. Rodaje

Es en esta fase donde se registra el material mediante medios técnicos. Para comprender cómo se realiza este trabajo, debemos conocer cuáles son las unidades narrativas del lenguaje audiovisual.

  • Toma
  • Plano
  • Escena
  • Secuencia
  • Plano secuencia

2.6 Tipos de Planos

A la hora de colocar la cámara, el director elige tanto el objetivo que se ha de utilizar como el fragmento de realidad que quiere captar. La planificación la lleva a cabo el director y aparece en el guion técnico. Podemos distinguir los siguientes tipos de plano:

  • Lejanos: Gran plano general, Plano general
  • Media distancia: Plano americano, Plano medio
  • Planos cercanos: Primer plano, Primerísimo primer plano, Plano detalle

2.7 Angulación de la Cámara

En función de dónde se coloque respecto a la visión de una persona que esté de pie, el ángulo de la cámara puede variar. Por una parte, le sirve al director para mostrar la acción y los personajes desde el punto de vista ideal para seguir la trama; por otro lado esa decisión es una forma de contar las cosas de una determinada manera, de tomar partido. Cada manera de colocar la cámara tiene un significado:

  • Ángulo normal
  • Picado
  • Contrapicado
  • Ángulo rasante o de gusano
  • Ángulo inclinado

2.8 Movimientos de Cámara

Marcel Martin, en su libro *El lenguaje del cine*, diferencia entre:

  • Descriptivos
  • Dramáticos

Además de la toma fija, se pueden distinguir los siguientes movimientos:

  • Giro o panorámica
  • Barrido
  • Travelling
  • Zoom

3. Postproducción

3.1 Montaje

Tras el proceso de rodaje hay que convertir todo el material en una obra audiovisual coherente. Se eligen las tomas buenas y se colocan en el orden necesario para contar la historia. Este proceso se denomina montaje. Esta fase tiene dos ámbitos: el visual y el sonoro. En el montaje sonoro hay tres elementos que hay que tener en cuenta: la música, los diálogos y los efectos sonoros.

Podemos distinguir entre los siguientes tipos de montaje:

  • Montaje continuo
  • Montaje discontinuo
  • Montaje paralelo
  • Montaje ideológico
  • Secuencia de montaje

3.2 Sonorización

Tras el montaje definitivo, es el momento de agregar los efectos de sonido y la música. En esta fase final se selecciona y manipula el material sonoro que se ha grabado y se añaden los sonidos que sean necesarios. Hay efectos especiales grabados con micrófonos en el lugar del rodaje, hay otros procedentes de bases de datos y otros que se crean a propósito mediante técnicas digitales.

3.3 Conceptos Técnicos de la Postproducción Musical

A la hora de hablar de música para cine o medios audiovisuales, hay que separar conceptos:

  • Banda sonora (soundtrack)
  • Banda sonora musical
  • Música de cine

Cuando se pone música a una película, puede pertenecer a varias categorías. Podemos distinguir las siguientes:

  • Música original
  • Música adaptada
  • Música diegética
  • Música no diegética
  • Música empática
  • Música anempática
  • Leitmotiv

A la hora de trabajar en una producción audiovisual, hay una serie de términos que hay maneja el equipo que se encarga de esta fase de la postproducción musical, que va desde la escritura de la música a la grabación de la misma. A continuación veremos la terminología técnica que se utiliza en esta fase:

  • Cue (bloque)
  • Cue sheet
  • Click-track
  • Punch
  • Mickeymousing

3.4 El Proceso de Musicalización

Una vez que el se ha decidido quién va a componer la música, se produce una reunión entre el director, el compositor, el técnico de sonido y el montador, llamada *spotting session*. En ella se decide en qué escenas va a haber música, el carácter general, y qué tipo de música debería utilizarse en cada escena o secuencia. El compositor va trabajando por bloques como hemos visto, a partir de los *temp-track*, que son piezas musicales que se colocan provisionalmente, de música preexistente o de otras películas, que sirven para darle una pista acerca del ritmo y el tipo de música que quiere el director. Generalmente, los compositores hoy en día trabajan con secuenciadores y librerías de instrumentos virtuales, en vez de escribir la partitura. El resultado es lo que se conoce como *mockup* (maqueta), una versión preliminar de la música antes de ser grabada con instrumentos reales.

Acusmática y el Sonido en la Narración Audiovisual

TEMA 3

1.1 Concepto de Acusmática

El término acusmático se utiliza para denominar un sonido que oímos, pero cuya fuente no se sabe cuál es, su origen es desconocido. La acusmatización tiene su origen en Pitágoras y se trata de un método pedagógico para mejorar la retención de aquello que se enseñaba. Consistía en esconderse tras una cortina mientras recitaba la lección para los estudiantes se centrasen en la escucha y potenciar así el mensaje sin distraerse con estímulos visuales.

1.2 Acusmática en Medios Audiovisuales

Hay ciertas herramientas y conocimientos que el técnico de sonido debe tener a la hora de trabajar creativamente con el audio. Obviamente, debe tener una formación tecnológica necesaria, tanto a la hora de utilizar el hardware como el software, y conocer las bases de la acústica que le van a permitir manipular los sonidos sin alterar propiedades sonoras esenciales de los mismos. Por otra parte, la psicoacústica les sirve para comunicar conceptos, integrando la acústica con la psicología de la percepción.

2. El Sonido en la Narración Audiovisual

2.1 Visión vs. Sonido

El aspecto visual a la hora de analizar una obra audiovisual siempre ha tenido preponderancia y ya hemos vistos como muchos estudios de música de cine o análisis de películas, se centran en él. Para justificar esta idea de preponderancia visual, se suele esgrimir que nos llega más información mediante un estímulo visual que auditivo, que el sistema auditivo depende del visual y que la visión tiene varias dimensiones al contrario que la audición, que es lineal.

2.2 El Sonido en una Producción Audiovisual

Uno de los conceptos clave es el de valor añadido que propone Chion, que como hemos visto consiste en ese significado extra que aporta un sonido, esa información y expresión que se añade a la imagen y que cambia la percepción de cada estímulo visual por separado. Partiendo de esta premisa, Rodríguez (1998) afirma que no hay que hablar de que el sonido enriquece a la imagen, sino que cambia la percepción del conjunto por parte del espectador. Su premisa es que el audio afecta a la narrativa audiovisual de un modo expresivo en tres aspectos:

  • Transmitir sensaciones espaciales
  • Conducir la interpretación audiovisual
  • Organizar narrativamente el flujo audiovisual

2.3 Espacio Sonoro

Cómo percibimos el espacio a través de la audición es un aspecto fundamental de la narrativa audiovisual, y se ha intentado reconstruir o recrear mediante técnicas de tratamiento del sonido, un determinado espacio sonoro. En este sentido, tanto en la radio como el cine, se han realizado experimentos para crear esas sensaciones espaciales, utilizando múltiples materiales, cambiando micrófonos de sitio, mezclando sonidos entre sí, etc.

3. Registro Sonoro: Sistemas de Grabación Analógicos y Digitales

El cambio fundamental del tratamiento del sonido en el cine fue la posibilidad de registrarlo. Los primeros inventos para grabarlo y conservarlo de forma permanente surgieron en el siglo XIX, con constantes mejoras de cara a la fidelidad (que la reproducción sea lo más real posible). Hay una variedad de técnicas electroacústicas que nos van a servir para conservar y reproducir sonidos en un espacio y tiempo diferentes a cuando se captaron.

3.1 Procedimientos de Registro

Podemos distinguir varios procedimientos de registro:

  • Mecánico
  • Eléctrico o magnético
  • Ópticos
  • Digitales

3.2 Evolución Histórica

En el siglo XVIII se produce el primer intento de registrar el sonido. Había un gran interés por preservar las improvisaciones de los intérpretes, sobre todo de teclado. Es el clérigo Creed quien presentó en 1747 a la Royal Society la demostración de un aparato que registraba improvisaciones al órgano y al clave, la llamada *Fantasy machine*.

3.2.1 Sistemas Mecánicos

  • Fonógrafo
  • Gramófono

3.2.2 Sistema Óptico

Surge con el nacimiento y desarrollo del cine sonoro, basado también en la conversión de las vibraciones por parte de un micrófono en variaciones en el voltaje. Al amplificarse la señal eléctrica, una célula fotoeléctrica que actúa como transductor, según la cantidad de energía eléctrica que le llega, varía el haz de luz en tamaño o intensidad. Estos cambios se registran en un negativo de película en movimiento, utilizando técnicas fotográficas.

3.2.3 Sistema Magnético

Surge en los años ’30 del siglo XX y supone toda una revolución para los medios de comunicación de masas. La empresa AEG, junto a Fritz Pfleumer, perfecciona el magnetófono de alambre. Sustituyen el alambre, propenso a la oxidación, por tiras de papel o plástico recubiertas por polvo de hierro.

3.2.4 Sistema de Grabación Digital

Llegan en los años ’90 del siglo XX y suponen un cambio radical, tanto a la hora de grabar música como a la hora de reproducirla, incluso la forma de consumirla. Es una revolución para los medios de comunicación, que tuvieron que cambiar todos los soportes, los estudios de grabación, las mesas de mezcla y adaptarse a la era digital.

4. Sincronización

La sincronía en una producción audiovisual se da cuando dos acontecimientos, visual y sonoro, coinciden en el tiempo. Aunque sonido e imagen se graban por separado, en el proceso de postproducción han de acoplarse para conseguir esa simultaneidad. A pesar de ello, es posible utilizar la sincronía como un recurso expresivo para conseguir un efecto determinado.

4.1 Tipos de Sincronía

  • Sincronía dura
  • Sincronía blanda
  • Sincronía pura

4.2 Métodos de Sincronización

  • Click track
  • Punch
  • Claqueta

5. Mezclas

Los componentes de la banda sonora de una obra audiovisual son tres: ruidos, diálogos y música. Cada uno de ellos se compone de los siguientes elementos:

5.1 Diálogos

  • Sonido directo
  • Sonido de referencia

5.2 Ruidos

  • Efectos especiales no sincrónicos
  • Efectos de sala (sincrónicos), también conocidos como foley
  • Atmos o ambientes

5.3 Música

Como ya hemos visto, tradicionalmente se puede distinguir entre dos tipos:

  • Diegética
  • No diegética

6. Sistemas de Exhibición Sonora

En cualquier tipo de producto audiovisual, uno de los objetivos es alcanzar un nivel de realismo a nivel sonoro lo más fiel posible. Paradójicamente, el sonido del cine, la televisión o los videojuegos, se aleja bastante del mundo real, pero esa artificialidad ha sido aceptada y requerida por los espectadores para dotar al conjunto de verosimilitud.

  • Sistema monoaural
  • Reductor de ruido DOLBY-A
  • Sistema stereo convencional
  • Dolby Stereo System
  • Dolby Spectral Recording (SR)
  • Dolby Digital 5.1

Funciones de la Música para Audiovisuales

TEMA 4. En los últimos años varios estudios han tratado de establecer cuáles son las funciones de la música para la imagen. Teresa Fraile recopila estas investigaciones y las aglutina para dar su propia visión dividida en dos apartados: la clasificación de la música para la imagen y sus funciones:

1.1.1 Según la Composición de la Música

  • Música original compuesta a propósito para la obra audiovisual.
  • Música compuesta previamente, no para la obra audiovisual. También llamada música prestada o preexistente.

1.1.2 Según su Finalidad Social

  • Sin fin social: no se persigue un fin concreto.
  • Fin comercial: cuando la música se concibe para tener un beneficio económico (incluir canciones de grupos de éxito para potenciar la venta del disco de la banda sonora musical).
  • Para conseguir prestigio: se utiliza música de grandes compositores con el fin de elevar el nivel artístico.
  • Significado social: cuando se utiliza música con connotaciones evidentes para un estrato de la sociedad.

1.1.3 Según la Fuente de Emisión de la Música

  • Diegética: cuando la fuente procede del universo de la ficción (vemos una radio que emite música, o un personaje tocando un instrumento).
  • Extradiegética: la fuente no procede del universo de la ficción, se añade en el proceso de edición y mezcla. Música “de fondo”, que los personajes no escuchan.
  • Cine musical: combina música diegética con extradiegética (usualmente aparece un personaje cantando, pero no vemos los músicos que interpretan la música del número).

1.1.4 Según el Grado de Sincronización de la Música con la Imagen

  • Sincrónica: cuando la música refuerza o va en sintonía con lo que sucede en la imagen.
  • Asincrónica: cuando la música es independiente de la imagen.

1.2 Funciones de la Música para la Imagen

1.2.1 Funciones Expresivas

Cuando el espectador experimenta emociones que solo tienen lugar cuando se produce esa unión entre imagen y música en la percepción. Está relacionado con el concepto de valor añadido de Chion que estudiamos previamente. Se crea una emoción en el espectador que nace de la música, alterando sustancialmente el significado de una imagen. Se producen cuando hay una implicación emocional del espectador, algo fundamentar en el proceso de creación y comunicación artística.

Fraile nos aporta estas claves para comprender las funciones expresivas:

  • Nexo con el espectador
  • Marco
  • Realismo
  • Tono emotivo

1.2.2 Funciones Estéticas

Para Fraile se trata de aspectos artísticos que van asociados a otros elementos artísticos para dar cohesión al resultado final. Distingue entre estas:

  • Filtro
  • Ambientación: Género, Espacio-tiempo

1.2.3 Funciones Estructurales

Para Fraile, tiene que ver con la manera en que se narra la historia, como un elemento más que va a afectar a la estructura interna y que el director tiene en cuenta desde el principio. Tiene que ver con la arquitectura del lenguaje audiovisual. Por ejemplo, dónde hay o no música. Relación de la estructura visual con la musical, a través del montaje y la mezcla. La música cohesiona la narración y da unidad global.

Para Fraile, la música sirve en este sentido para lograr:

  • Unidad: enlace, de conjunto, cohesiona el estilo
  • Continuidad
  • Equilibrio estructural
  • Rítmica
  • Elipsis estructural
  • Presencia acústica

1.2.4 Funciones Narrativas

La música interviene activamente en la narración, ayudando a contar la historia. Muy relacionadas con otras funciones, y también tienen que ver con las convenciones del lenguaje audiovisual y los clichés que existen para explicar y acompañar la imagen. Fraile afirma que las funciones significativas no hacen alusión a posturas teóricas generales, sino que parten de una perspectiva secuencial o analítica.

Fraile establece que este metatexto puede ser narrativo o descriptivo:

  • Punto de vista
  • Elipsis narrativa
  • Elipsis significativa
  • Descripción de un personaje

2. La Música en la Radio y la Televisión

2.1 Conceptos Generales

Tanto la radio como la televisión nacen como sistemas de transmisión y recepción a nivel abstracto, porque realmente no se piensa apenas en qué tipos de contenidos iban a ofrecer. En este sentido, se diferencian de las anteriores tecnologías que se desarrollaron para comunicar, donde estaba más o menos claro. La música se convierte en un elemento decisivo para su desarrollo y contribuye a dos niveles:

Como contenido en sí mismo, puesto que la mayor parte del contenido de radios y televisiones es esencialmente música, con el objetivo de entretener y hacer disfrutar a los espectadores. Como elemento funcional, estructural y narrativo: la música se va a utilizar como banda sonora que acompaña a muchas producciones radiofónicas y televisivas. En este nuevo lenguaje audiovisual, es un elemento más gramatical, y que se utiliza para estructurar los espacios: marca pausas, presenta contenidos y los organiza. Mònica Barberá, en el libro Música y sonido en los audiovisuales. nos enumera los términos más utilizados para describir esta función de la música en estos medios: Sintonía: fragmento musical que aparece al comienzo y al final de un programa, o en las diferentes pausas. Cortina: fragmento musical que actúa como signo de puntuación para determinar un cambio de secuencia o escenario. Normalmente comienza con un “fade in” y concluir con un “fade out”, al enlazar con la siguiente. Típico de las teleseries, para marcar cambios de ubicación. Ráfaga: fragmento más breve que la cortina, y que sirve para separar bloques temáticos. En esta ocasión comienza y termina por corte. Suele utilizar en los telediarios para marcar el cambio de una sección a otra.  Golpe musical: entrada súbita de un fragmento musical, que dota de gran efectismo a la imagen, que adquiere potencia. Se utiliza en un momento muy concreto con una sincronía dura para destacar un detalle. Por ello suele coincidir con un cambio de plano, un zoom rápido, una frase importante o cualquier otro elemento. Funciona mejor si hay una pausa prolongada previamente.

2.2       La música en la radio: Los primeros experimentos para transmitir sonido a distancia que tienen éxito son los de Clèment Adler, que en 1881 presenta el Théâtrophone, un invento creado a partir del teléfono, que el propio Adler había contribuido a mejorar y establecer en Francia. El estreno fue en la Exposición Internacional de la Electricidad de 1881 de París, convirtiéndose en un éxito absoluto al instante. Consistía en un sistema de retransmisión telefónica mediante un micrófono ultrasensible, por dos canales, de tal forma que el receptor, ubicado en la exposición, era capaz de distinguir posiciones de los cantantes y la orquesta. Estos eventos se siguen reproduciendo en otros lugares, utilizando las líneas telefónicas para retransmitir música. Por ejemplo, el Festival de Leeds se retransmite en 1883 con este sistema, y la Compañía Telefónica de Madrid ofrecía pagar una cuota adicional para que sus abonados pudiesen escuchar vía telefónica los eventos musicales del Teatro Real o del Parque del Retiro. Es en 1895 cuando Guillermo Marconi patenta la radio. Entre sus usos, Marconi no había previsto las enormes potencialidades como medio de comunicación a nivel de ocio doméstico o como objeto cultural, puesto que lo veía como una herramienta de uso militar y mercantil. Es David Sarnoff, telegrafista y futuro presidente de la RCA, quien ve el enorme potencial como medio de difusión cultural y musical de la radio, y propone infructuosamente a Marconi la construcción en masa de cajas de música radiotelefónicas. En 1906 se produce la primera transmisión radiofónica de música que se conoce. Fue desde una estación experimental estadounidense que emitió la grabación de un gramófono, en concreto música de Haendel. El objetivo era realizar pruebas acerca de la calidad de la transmisión y recepción del sonido, no con fines de ocio. En 1910 el ingeniero norteamericano Lee de Forest instala una emisora de radio en el Metropolitan Opera House de Nueva York. Desde allí se retransmiten las primeras dos óperas de la historia: Cavalleria Rusticana y Pagliacci, interpretada por Enrico Caruso. Se inaugura la transmisión de eventos culturales a través de la radio. En 1920 nace la primera emisora que emite regularmente en Estados Unidos, la KDKA, en Pittsburgh, Pensilvania. Se funda tras una serie de pruebas que lleva a cabo su creador, Frank Conrad, emitiendo desde su garaje noticias leídas del periódico y discos de gramófono. Es la primera vez que se emite con horarios fijos y anunciados, con una programación diaria. En Europa la BBC comienza sus emisiones en 1922 y en España Unión Radio emite regularmente desde 1925. Las características de la radio musical de esta primera etapa se pueden resumir en las siguientes: Por primera vez hay una audiencia colectiva, y la música es capaz de llegar a rincones del mundo antes inalcanzables. Además, esa audiencia recibe de forma simultánea esa música en diferentes lugares, un fenómeno nuevo. Condiciones de recepción muy ventajosas: la gente escuchaba la radio tranquilamente en su casa, eligiendo la emisora en función muchas veces de la música. De esta manera surge la sociedad de consumo de masas y la socialización de los mensajes musicales. Surge el concepto de programación: se ve la necesidad de secuenciar de manera temporal la emisión de los programas. Esto deriva en la aparición de los géneros radiofónicos, siendo los programas musicales, junto a los informativos, los pilares de la parrilla radiofónica, abarcando un 75% del tiempo de emisión. La radio no se queda en el estudio, sino que busca fórmulas para retransmitir eventos. En el ámbito musical se siguen retransmitiendo conciertos, recitales, óperas y otras manifestaciones culturales. Además, muchos conjuntos instrumentales y grupos de música ligera acuden a los estudios a tocar en directo, lo cual supuso un impulso para el jazz y la música popular. Desde los años ’20 del siglo XX también acuden las grandes orquestas a los estudios, tanto sinfónicas como de música ligera, y hay emisoras que van a crear sus propias orquestas. Los programas que sientan las bases para futuras emisiones son de los siguientes tipos: Educativos: con una finalidad didáctica. Culturales o de ocio: con una finalidad de entretenimiento cultural. Retransmisiones de óperas, conciertos sinfónicos, y otros espectáculos escénicos.  Entretenimiento o seriales radiofónicos: la música va a tener un papel fundamental en los programas dramáticos, que incluyen bandas sonoras similares al cine. En la década de los ’30 del siglo XX la música en directo gana popularidad, y los gramófonos se van sustituyendo por instrumentistas que toquen en vivo. Por el momento hay que tener en cuenta que la radio era completamente en directo, no existían los medios para grabar programas. El repertorio de obras que se da a conocer al gran público crece exponencialmente con los músicos en directo, puesto que el gramófono tenía un catálogo limitado y escaso. El número de obras y estilos aumenta considerablemente, lo que desemboca en la creación de las grandes orquestas sinfónicas radiofónicas. En 1937 se funda la NBC Simphony Orchestra, dirigida por Arturo Toscanini y que servirá de inspiración a otras cadenas. La relación entre el sector radiofónico y discográfico se acentúa, de forma que hay una retroalimentación que llega hasta nuestros días. La radio se convierte en un campo experimental para desarrollar nuevos estilos musicales, y su difusión en los años posteriores será decisiva para géneros como el rock o el jazz. En los años ’40 se producen avances significativos a nivel técnico. La frecuencia modulada permite una transmisión mucho más nítida, que es perfecta para la emisión de música. Por otra parte, el magnetófono va a revolucionar la radio, con la posibilidad de registrar los programas en estéreo, además de aportar mayor calidad de sonido y reducir el ruido de fondo. Por otra parte, la posibilidad de poder registrar los programas resulta en una mayor calidad y aumenta las posibilidades narrativas y dramáticas de la radio, adquiriendo los seriales una gran popularidad. Esta mejora técnica permite un montaje cercano al cinematográfico. En los años ’50 y ’60 del siglo XX, la invención del transistor permite una mayor movilidad e independencia de los receptores. Se produce un cambio significativo porque permite una escucha individual y selectiva, ya no se socializa tanto para escuchar la radio. La música sigue siendo un pilar fundamental de la programación, al igual que los informativos. Al surgir la televisión, se crea una fuerte competencia que la radio combate mediante la creación de espacios radiofónicos populares, siguiendo el sistema música, noticias y retransmisiones deportivas como seña de identidad. En los años ’70 surgen emisoras independientes que contribuyen a dar a conocer música alternativa, como la canción protesta. Las llamadas “radios libres” surgen como consecuencia de los cambios producidos a raíz de mayo del ’68, cuando grupos culturales y políticos que no tenían cabida en el sistema establecido fomentó la aparición de estas emisoras. Están en contra de la radio fórmula y de los géneros impuestos, que consideran impersonales y un negocio de la industria cultural. Estas emisoras quieren recuperar la tradición olvidada y servir como medio de protesta mediante textos comprometidos en las canciones. En los años ’80 las parrillas se reestructuran y las emisoras tienden a la especialización. La audiencia se sectorializa y aparecen cuotas de mercado independientes que van a aprovechar las cadenas generalistas para organizar sus contenidos. Así, surgen los magazines, los programas de entretenimiento, de divulgación en las principales emisoras, mientras que se crean emisoras dedicadas exclusivamente a la música o a la información.

2.3       La música en la televisión: La música tiene una presencia importante en casi todos los géneros televisivos. Si pensamos en cualquier tipo de programa, es difícil encontrar alguno que no tenga música. La música es un elemento que forma parte de la esencia de la televisión, puesto que tiene un papel eminentemente estructural. Además, hay programas que han tenido a la música como protagonista. La Unión europea de radiodifusión clasifica los programas dedicados a la música en: música culta; música ligera, y videoclips y otros programas musicales. La televisión comienza de modo experimental en el año 1928 cuando se realizan las primeras emisiones de prueba por parte de la compañía General Electric. Se trataba de emisiones mudas que pasaron desapercibidas, y que no tuvieron demasiada aceptación. Entre 1935 y 1945 se incorpora el sonido y se comienzan las emisiones regulares. La audiencia es mínima debido a los pocos receptores disponibles, y además la II Guerra mundial frena su expansión debido a la crisis económica de la posguerra. Para sufragar gastos se recurre a los anunciantes, inaugurándose la era publicitaria audiovisual. El primer comercial televisivo se emitió en junio de 1941 en la cadena NBC de Estados Unidos. La música también fue un elemento decisivo en el desarrollo de los spots publicitarios. En cuanto a la programación, la información y el entretenimiento son los pilares de las cadenas de televisión. se está desarrollando el lenguaje televisivo y aún se basan mucho en los modelos radiofónico y cinematográfico. Uno de los géneros más exitosos es la actuación de grupos en los estudios, que darán lugar a los shows musicales, una vez que surge el playback. En los años ’50 aparece la televisión en color y puede competir con el cine. Desde 1954 la NBC comienza a emitir una serie de programas grabados en color, con una duración de hora y media, que se basaban en números musicales, con el título de Producer’s Showcase. Son los programas que inauguran los programas tipo revista musical en televisión. En la década de los ’60 los horarios de emisión se amplían, se empiezan a estudiar los gustos de los espectadores y una revisión de los programas en directo. La inversión económica aumenta, resultando programas de mayor calidad. Se establecen tres géneros como pilares: variedades, drama televisivo y concursos. se utilizan los mismos patrones que se han utilizado en la radio.  La televisión pasa a ser una manera de llevar el espectáculo a los hogares y de aglutinar a la familia en torno a ella. El directo proporciona una cercanía que el cine no puede conseguir: las transmisiones en vivo en el mismo momento que se produce la acción y en el mismo sitio en el que tiene lugar provoca que coincidan cuatro tiempos: el del suceso, el de la creación narrativa, el de la difusión y el de la recepción. A mediados de los años ’70 va a aparecer un nuevo fenómeno televisivo que se encuentra a caballo entre la publicidad y la televisión: el videoclip.  Desde los años ’80 la televisión sufre una evolución similar a la radio. Surgen numerosas cadenas y se produce un fenómeno de descentralización, dominado por la aparición de emisoras privadas, las guerras de audiencias y la internacionalización de los productos televisivos, así como sus públicos. A finales de los ’90 aparecen los canales temáticos con la televisión digital que incluye programación especializada centrada en público muy concreto. Hoy día, el triunfo de las compañías de streaming y el impulso de internet, con youtubers que tienen millones de espectadores, hacen que la televisión tenga que reformularse para adaptarse a los nuevos tiempos.

3.         LA MÚSICA EN PUBLICIDAD Y EL VIDEOCLIP: La música en publicidad tiene sobre todo dos vertientes: la radiofónica y la televisiva. El videoclip podría también considerarse como un subgrupo de música publicitaria, puesto que nace con el objetivo de promocionar a los grupos musicales y aumentar sus ventas.

3.1       La música en la publicidad: La música en publicidad es una herramienta más que ayuda a conseguir su objetivo principal, que no es otro que conseguir beneficios económicos. Se trata de un negocio en el que intervienen los siguientes agentes básicos: el cliente (el anunciante del producto), la agencia de publicidad (los creativos que desarrollan las ideas de la campaña publicitaria y la plasman en un producto visual, sonoro o audiovisual) y la agencia de medios (se encarga de difundir el anuncio en el medio que se ajuste mejor a las necesidades del producto). Los tres agentes tienen reuniones de briefing, en las que se ponen de acuerdo para establecer las bases de la campaña. Queda reflejado cuáles deben ser las características a destacar del producto que se publicita, cuál es la situación del mercado, a quién está destinada la campaña publicitaria (público objetivo), y cuestiones prácticas como el presupuesto o el calendario de entregas. Normalmente los publicistas van a buscar un posicionamiento (storytelling) determinado para esa campaña, es decir, crear una imagen de marca que posicione ese producto por encima de la competencia, contando sus bondades y beneficios respecto a otros (precio, calidad, tecnología). Se pretende que los compradores del producto sigan comprándolo (crear fidelidad) y captar potenciales nuevos consumidores.

3.1.1    Características del producto publicitario: Normalmente se tata de producciones con un gran presupuesto y en el que la música tiene especial importancia. La duración de un spot oscila entre 20 a 50 segundos, aunque en general es variable. Un de las características más importantes del mensaje publicitario es la redundancia. La repetición es necesaria para que el espectador recuerde la marca, y la asocie con determinados valores y bondades del producto. En general, distinguimos entre tres tipos de mensajes publicitarios: Spots o anuncios, también llamados filmlets.

Espacios de teletienda o de promoción de productos en programas televisivos. Trailers o autopromoción en los que la cadena publicita su programación.  En general, la música de los espacios de teletienda es una música de fondo que se compone para acompañar al presentador, y la música de autopromoción suelen ser músicas prestadas para publicitar películas o programas estrella de la parrilla.

3.1.2    Tipos de música en publicidad: Jingle o canción publicitaria: composición original con letra y música compuesta especialmente para un anuncio. Se trata de un texto publicitario cantado, en el que se incluye el nombre del producto y se describen sus bondades. Es la música específica del medio publicitario, puesto que refleja la esencia del propio mensaje publicitario. Muchas veces son los creativos quienes elaboran la letra y el compositor solo se encarga de ponerle música. El compositor, a la hora de trabajar, ha de tener en cuenta la letra y las características globales del anuncio. En ocasiones el jingle puede presentar variantes y no tener una letra comercial referido al producto o servicio, pero sigue teniendo un fin publicitario. Sound alike o al estilo de: se trata generalmente de arreglos o interpretaciones que recuerdan a música que el oyente conoce. Su objetivo es transmitir los valores de una marca, utilizando esa referencia musical para identificarse con ella. De esta forma se crea una identidad sonora, y llega incluso a superar una campaña determinada, apareciendo recurrentemente como algo asociado a esa marca a lo largo del tiempo. En ocasiones es arriesgado porque la sombra del plagio está muy presente y se han dado casos de artistas que han denunciado y ganado juicios debido al parecido con su música. Banda sonora musical: en ocasiones se recurre a la composición de una música de tipo cinematográfico para acompañar a las imágenes. Hoy día, con unos anuncios muy sofisticados muy cercanos al lenguaje del cine, es un tipo de música muy común. En este caso la música no refleja las bondades del producto sino que acompaña de forma sincrónica a las imágenes para reforzar el mensaje del spot. Canción original: también se conoce como máster o fono, y se trata de la grabación original, cuyos derechos de autor y fonográficos son adquiridos para utilizarse en un producto publicitario, pero sin alterarla en ningún caso. El nombre de fono, viene de la necesidad de adquirir los derechos del productor fonográfico, que es el propietario del máster de la grabación original, además de adquirir los derechos del compositor y el editor. Cover o versión: se trata de una nueva grabación de un tema que ya existe, modificando alguno de sus parámetros. También requiere la adquisición de derechos. A menudo se escoge esta opción porque al no tener que pagar los derechos fonográficos, es más económico. Se intenta imitar a la canción original de tal forma que apenas se distinga la diferencia. Otra opción es adaptar un tema al panorama actual, para atraer a público joven. Además, la ventaja es que se puede alterar el tempo para adaptarlo a las necesidades de la imagen. Adaptación: también son versiones de temas originales conocidos por el gran púbico, que en este caso se modifican sustancialmente. Se suele cambiar la letra, la instrumentación y o cualquier otro elemento para adaptar la canción a la duración y estilo del spot publicitario. También requiere los derechos del compositor y el editor. Dependiendo de la intención, se puede buscar la complicidad del espectador utilizando un tema conocido lo suficientemente variado para que al ser descubierto, se quede grabado en la memoria. En ocasiones además, se compone un pequeño motivo, a modo de logo musical, para que se asocie a la marca, igual que sucede con los logos visuales. Esta huella sonora se puede adaptar según la región o el público objetivo del anuncio en cuestión.

3.1.3    Funciones musivisuales en publicidad: Alejandro Román, aplica y cree útil la utilización de las funciones musivisuales que él mismo plantea en sus investigaciones. En este caso, afirma que las más utilizadas son las funciones descriptivas, en concreto las siguientes: Función temporal-referencial. Creación de una atmósfera (clima). Función indicativa-temporal. Evocación de un periodo de tiempo histórico (siglo XIX). Función local-referencial 1. Evocación de una cultura o localización geográfica (Japón). Función local-referencial 2. Evocación de espacios físicos (desierto, etc.). Función cinemática. Subrayar la acción física. Función plástico-descriptiva. Representar elementos visuales. Román afirma que también se pueden encontrar otras funciones como las psicológicas. En concreto cita la función prosopopéyica caracterizadora, utilizada para trasladar la naturaleza de un personaje, o la función emocional, destinada a suscitar una emoción determinada en el espectador. Por último, Román habla de la función musivisual informativa, que se ocupa de dirigir la atención sobre elementos importantes que aparecen en la imagen.

3.2       El videoclip: Como hemos visto anteriormente, surge a mediados de la década de los ’70 del siglo XX como un fenómeno polémico por su naturaleza publicitaria de fondo. Tiene unas características propias, que son: Se trata de un texto audiovisual que se genera a partir de un tema musical, generalmente de música popular. El montaje es muy ágil, con un ritmo elevado, y con un estilo libre, alejado del cinematográfico. El ritmo debe ser constante y no caer en la lentitud. Debe poseer un estilo propio, diferenciado de los demás, que mantenga la atención del espectador. Tiene un fin publicitario, para promocionar una canción y crear una imagen del grupo. Se trata de un género experimental con efectos visuales próximos al cine y en el que los directores dan rienda suelta a su creatividad, con movimientos de cámara, selección de planos y montaje muy complejos, así como una iluminación diferente a la habitual. Como precedente cinematográfico encontramos numerosos ejemplos, como las películas de los Beatles que dirigió Richard Lester en los años ’60 o posteriores como 200 Motels de Frank Zappa y Tony Palmer, rodada en 1971. Bohemian Rhapsody de Queen está considerado el primer videoclip que utiliza efectos especiales y comienza la transición hacia la era moderna. Al tener un gran éxito todas las compañías se lanzan a elaborar videoclips para los músicos más importantes del momento: Hot les de Rod Stewart, Pool to cry de los Rolling Stones, Rush de los Bee Gees o Diamond Dogs de David Bowie. En 1978 la BBC comienza a emitir videoclips en un programa llamado Top of the pops y estos adquieren rápidamente gran popularidad: la era dorada del videoclip ha comenzado. En 1981 nace la primera cadena que se dedica a emitir videoclips las 24 horas del día, en calidad estéreo y mediante satélite o cable: la MTV, propiedad de la Warner.

4.         LA MÚSICA EN LOS VIDEOJUEGOS: La música en los videojuegos está íntimamente relacionada con la música de cine, pero introduce un concepto clave que es la interactividad. En este sentido va a ser clave la decisión del jugador de realizar conscientemente acciones, de tomar decisiones, que pueden alterar el resultado final, y que van a ir construyendo la experiencia global. De esta manera, la estructura se va construyendo en función de los que el jugador escoja, abriendo caminos y cerrando otros, con una cierta libertad de acción limitada por el mundo virtual del juego y las posibilidades que nos ofrece. La música también debe ser interactiva. El diseño del sonido y de la música estará asociado a las acciones que tomemos como jugador a través de nuestro avatar, coincidiendo en este caso la figura del protagonista con la del receptor.

4.1       Historia de la música para videojuegos: La música en los videojuegos, al igual que ocurrió en el cine, tardó en incorporarse debido a problemas de carácter tecnológico. Los primeros videojuegos nacieron como prototipos no lúdicos, tomo el Tennis for two, creado por William «Willy» A. Higginbotham en el Laboratorio Nacional de Brookhaven, y considerado el primer videojuego de la historia. En los años ’70 las compañías comienzan a ver el potencial de ocio y negocio de este pasatiempo y crean las primeras máquinas recreativas, como Computer Space o Pong de la empresa Atari. A finales de la década se empiezan a comercializar las primeras consolas domésticas, como la Atari 2600 VCS  o la algo posterior Intellivision. En videojuegos como Pac-man se introdujo una pequeña melodía monofónica en los cambios de pantalla, y se comenzó a incluir música aunque con muchas limitaciones. En los años ’80 con la inclusión de los chips de sonido y el aumento de la memoria, se consigue incluir música en bucle que acompaña las partidas. Era música muy sencilla, debido a la tecnología disponible. Más adelante se comienza a utilizar la secuenciación MIDI, lo cual va a suponer una revolución tímbrica, y el muestreo, que permitió la inclusión de pequeños fragmentos pregrabados que aparecían al realizar alguna acción. El uso cada vez más generalizado de los ordenadores como herramienta para jugar a videojuegos trajo un avance en las tarjetas de sonido, siendo la compañía Creative Labs con su Sound Blaster un punto de inflexión en cuanto a calidad sonora. En la década de los ’90 ya es posible utilizar el CD-ROM como soporte musical en los videojuegos, y la aparición de las consolas modernas posibilita que se pueda trabajar ya con 24 canales de 16 bits en estos discos. Poco a poco se irá desarrollando la música adaptativa, cuyo antecedente podemos encontrar en el sistema iMuse de LucasArts. Fueron pioneros en la música dinámica, aplicando su propio motor de música llamado iMUSE para sus aventuras gráficas. Este sistema permitía sincronizar composiciones con la acción del juego para conseguir transiciones suaves entre temas musicales de distintos escenarios. El primer videojuego en aplicarlo fue Monkey Island 2: LeChuck's Revenge. El resultado fue una música que iba cambiando gradualmente, evitando cambios bruscos, mejorando la inmersión del jugador.

4.2       Características propias de la música para videojuegos: La evolución de la música de los videojuegos ha estado supeditada a los avances tecnológicos. El uso generalizado de loops está unido a la escasa memoria de los dispositivos, y creó un modo de hacer música, un estilo, que aprovechaba al máximo los recursos disponibles. Por tanto debemos tener en cuenta que la evolución de los estilos está ligada a la aparición de nuevas tecnologías. A diferencia del cine, la utilización de sonidos grabados no pudo llevarse a cabo hasta bastante después de lo deseado, y por ejemplo la inclusión de grandes orquestas al estilo cinematográfico no se han podido incluir hasta apenas hace 15 años. A nivel estético, podemos encontrar un eclecticismo mayor en el cine, debido a los recursos técnicos disponibles, el desarrollo de géneros propios y el intercambio culturar entre Japón, cuna de las empresas más importantes de videojuegos, y occidente. Así, encontramos mezclas extrañas y originales que solo se dan en la música de videojuegos. Por otra parte, los videojuegos aspiran a una sensación de inmersión cada vez mayor, y por tanto, para llegar a esas cotas de realismo, la música debe realzar los cambios direccionales que se van produciendo mediante una capacidad cada vez mayor de adaptabilidad. Así, el pensamiento algorítmico de la estructura interna del videojuego debe estar íntimamente ligada a la manera de construir la música. De esta manera se consigue que las acciones del personaje activen la música concreta que necesita ese momento, lugar o situación, en lugar de una música genérica. Esto se consigue mediante un mecanismo lógico, en el que el compositor compone varios temas que se van a activar en función de las acciones posibles, y donde los cambios y enlaces tengan también una coherencia desde el punto de vista musical. Por tanto, el compositor debe tener en cuenta que no está ante un producto narrativo lineal, sino que hay diferentes alternativas, y que es el jugador quien elige qué camino sigue, pero es el compositor quien debe saber cómo subrayar esas decisiones a nivel musical, sea cual sea esa elección.

4.3       Parámetros de la música adaptativa: Hay una serie de parámetros que hay que tener en cuenta para componer música adaptativa, es decir qué eventos pueden “disparar” una capa musical cuando el jugador llega a cierto punto del juego. Por ejemplo: Cercanía a un enemigo: es muy habitual que haya dos tipos de ambiente en videojuegos que contienen peleas o combates; cuando la situación es estable suena de fondo una música neutra o apacible y cuando comienza el enfrentamiento sube a primer plano una música específica de batalla, que puede variar a lo largo del juego por varios factores (ubicación, si se trata de un jefe especial, si se ha llegado a un punto de especial importancia en la historia) Cantidad de enemigos: siguiendo en la línea del evento anterior, la música suele ser diferente si el jugador se enfrenta a varios enemigos o a un jefe especial. También puede darse el caso que la música refleje esa densidad de personajes, aumentando el número de capas. Tipo de enemigo: al igual que el cine, los videojuegos también tienen clichés que han ido afianzándose a lo largo de los años, según el género. Un enemigo de un videojuego de plataformas tendrá una música diferente que un shooter en primera persona. Narrativa: en videojuegos más cercanos a una narrativa convencional, con una trama y una historia, la música puede evolucionar cuando el jugador llega a ciertos puntos clave. La música puede reflejar esto añadiendo o quitando capas, utilizando leitmotivs, o temas reconocibles que estén asociados a lugares o eventos. Movimiento del jugador o la cámara: en géneros como los videojuegos de plataformas es muy común que según se avance por las diferentes pantallas la música vaya cambiando de acorde al ambiente, situación que también encontramos en las aventuras gráficas. Por otra parte en algunos juegos en primera persona, se pueden enfatizar los movimientos de cámara del jugador cuando se desencadene algún evento (por ejemplo, al utilizar algún objeto en un momento clave). Temporizadores: es muy frecuente que haya música que deba funcionar en bucle sin que el jugador se dé cuenta. En estos casos hay que componer música que funcione por sí misma, pero también que pueda combinarse con música que pueda desencadenarse por otros eventos y que esté en otro plano o capa. En este sentido, es muy frecuente encontrar en RPG (videojuegos de rol) una música que aparece en las batallas y que se va repitiendo hasta que esta termina. En este caso, como no se sabe cuánto va a durar la batalla, hay que componer varias capas para que la “cola del motivo”, es decir, la música que debe sonar cuando la batalla termina, sea coherente con la música que suena en el momento de la batalla y se pueda añadir en cualquier momento sin que haya un cambio brusco. Conexión con otros parámetros: todos estos elementos hay que tenerlos en cuenta en su conjunto, y tener claro que pueden interactuar entre ellos. Koji Kondo, compositor de la música de los videojuegos de Super Mario, describe cuatro componentes que debe tener la música dinámica o adaptativa: La capacidad de crear música que cambia con cada partida. La capacidad de crear una producción multicolor transformando los temas en la misma composición. La capacidad de añadir nuevas sorpresas y aumentar el disfrute del juego. La capacidad de añadir elementos musicales como características del juego. La música dinámica se está convirtiendo en un requisito para cualquier videojuego, los jugadores se cansan del típico modelo de reproducción en bucle (loops) de época pasadas. Usar loops hoy en día está, en general, mal visto, puesto que se percibe como una forma ineficaz de utilizar la música en los videojuegos. Según Koji Kondo, la música dinámica debería mostrar la naturaleza participativa de un juego, y podría incluir técnicas como el cambio del tempo, la adición de un instrumento o varios mediante capas, modificar la posición de la música con los movimientos de los personajes, o añadir variabilidad a la reproducción de las frases. La música dinámica, como se ha mencionado anteriormente, tiene diferentes niveles en los que debe reaccionar o interactuar tanto con la narración del juego como con el jugador. Como resultado, hay muchas dificultades que la música dinámica trata de resolver y que son bastante complicadas, incluyendo la duración del juego, el cansancio que experimentan los oyentes (jugadores), la interactividad multijugador, y la interactividad y participación del jugador individual con el juego. El problema más significativo al que se enfrentan los compositores de videojuegos es que en general presentan una narrativa no lineal. En pocas palabras, los juegos son en gran medida impredecibles en términos de saber las direcciones que el jugador puede seguir, y cuánto tiempo le va a llevar. Muchas veces, la narración del videojuego progresa de forma "ramificada", similar a la forma de las ramas de un árbol, en que hay muchos caminos y finales posibles. Teniendo en cuenta la multitud de direcciones o ramas por las que un jugador puede progresar, el compositor debe tratar de crear música que pueda rápidamente adaptarse a las decisiones tomadas por el jugador, así como a otros parámetros dinámicos del juego.  Aunque componer para eventos específicos del juego o incluso para lugares puede ser razonablemente sencillo, predecir cómo estos elementos se conectan entre ellos en cualquier momento puede ser muy difícil. La habilidad de cambiar sin problemas de una pista de música a otra ayuda en la continuidad de un videojuego y a la inmersión en el mismo, ya que una partitura que no se adapte generalmente lleva a una experiencia de juego coja, y el videojuego puede perder algo de su capacidad de inmersión.


TEMA 5. 1.         CONSUMO Y RECEPCIÓN DE LA MÚSICA AUDIOVISUAL: Según Manuel Gertrúdix Barrio, para analizar el consumo de la música por parte de la sociedad actual debemos hacerlo a través de tres vías: la social, donde podemos estudiar cómo los sistemas de producción afectan al consumo musical; la económica, para estudiar los mecanismos de la industria audiovisual; y la cultural, para determinar tendencias musicales en la actualidad. Barrio, propone estudiar el fenómeno del consumo de música audiovisual como un todo en el que no se pueden separar otros aspectos, como la creación, la industrialización, o la distribución.

1.1       Aspectos económicos: Como señala Walter Benjamin, la industrialización de los procesos creativos he generado una cultura de comunicación de masas, en la que el aura de la obra de arte se diluye. La posibilidad de registrar una obra audiovisual tiene como consecuencia que se pueda reproducir a gran escala y que pueda llegar a todo el mundo. Por otra parte, con la llegada de internet y la mejora de la tecnología, el Arte se democratiza y ya no son necesarios costosos equipos para realizar una producción audiovisual básica. Para Barrio, la industria fonográfica fue el sector pionero en ese proceso de industrialización, lo cual conlleva dos riesgos principalmente: su valoración es variable y es un producto con una escasa vida. Estos principios son aplicables a cualquier producto audiovisual. Para evitar estos riesgos, Barrio  afirma que las compañías siguen estas estrategias: Creación de un catálogo: se reparte el riesgo con un amplio catálogo, que tiene la posibilidad de rescatar éxitos y combinar productos que tardan más o menos tiempo en venderse. Invertir en distribución: es importante que el producto esté disponible en cualquier sitio y que se conozca. Estructura publicitaria: generar tendencias para influir en los gustos de los consumidores. Como hemos visto, la distribución y comercialización de cualquier obra audiovisual o musical es decisiva para su éxito. Hoy en día, con unos mercados y una cultura global, hay un proceso de internacionalización en el que unas pocas compañías intentan controlar el mercado.

1.2       Aspectos sociológicos: Como hemos visto en temas anteriores, en el siglo XX la música, con los nuevos medios de comunicación, logra llegar a una cantidad de oyentes nunca antes alcanzada. De ser una actividad elitista, se pasa a la posibilidad de escuchar música en la radio o en un disco, por parte prácticamente cualquier persona. Esta democratización del acceso a la música ha permitido que no sea tan necesaria la representación en vivo, cambiando los hábitos de la sociedad y dando a conocer música de estilos muy variados que de otra forma no se conocerían. En este sentido, tanto la radio como la televisión, han actuado como medios de divulgación de todo tipo de géneros y estilos musicales. Barrio (2013) pone como ejemplo que mientras en 1830 solo un reducido número de personas podían acceder escuchar una obra sinfónica, en los años ’80 del siglo XX se calculaba en dos horas diarias la cantidad de música que consumía una persona que viviese en el mundo desarrollado. Para Barrio (2013), este modelo social de consumo se basa en los siguientes puntos: Cultura del ocio: consecuencia de la cultura de masas. Aparición nuevos públicos: sectores de población con alta disposición al consumo musical, sobre todo jóvenes. Estos tienden a seleccionar lo que compran porque les supone un esfuerzo, se crea un modelo de consumo basado en valorar la juventud, creando modelos de identificación grupal. Colonización cultural: se intenta imponer un modelo y unos productos a nivel global (show-business, star-system, hit-parade). Medios de comunicación de masas como autoridad: se convierten en difusores de un mensaje aparentemente veraz, con una posición supuestamente objetiva. Serialización de los mensajes musicales: la música se convierte en mercancía consumida en serie, perdiendo su esencia. Cotización de la obra musical: al creador y al oyente se suma la figura del vendedor, que persigue beneficio económico. Referencialidad de los medios: el lenguaje audiovisual y la intervención de los procesos de postproducción distorsionan la realidad, creando expectativas de cómo debe sonar un producto audiovisual o sonoro. Artificialidad realista frente a naturalidad. Generación de nuevos puestos laborales: desde DJ’s hasta técnicos de sonido, que en el proceso de comunicación quedan entre el compositor y el oyente, pudiendo alterar el resultado final del sonido.

1.3       Aspectos culturales: Según Barrio (2013) las industrias culturales tienen unas características propias respecto a otros productos: Punto de vista económico: riesgo alto en los beneficios, los productos deben ser únicos y originales, y renovarse continuamente. Punto de vista político: las industrias culturales generan y transmiten ideología.Como plantea Walter Benajmin, la obra de arte pierde ese halo mágico cuando pasa de ser algo único a poder reproducirse y difundirse de forma masiva. La música, como parte de la industria audiovisual, es uno de los pilares de la industria cultural. Tiene una ventaja y es que forma parte varias industrias: discográfica, cinematográfica, televisiva, radiofónica, videojuegos, cada una de ellas con un tratamiento diferente. La mercantilización de la obra musical afecta, según Barrio (2013) al proceso creativo tanto en contenidos como lenguaje, y tiene efectos en: Modo de producción: se establecen mecanismos productivos para el cumplimiento de los plazos, y la especialización en tareas muy concretas (compositor, orquestador, copista, diseñador de sonido, productor, etc.). Modo de financiación: compra por parte del consumidor o mediante publicidad. Modo de programación: cómo se inserta en el mercado y se distribuye. Modo de comercialización: globalización como medio para obtener mayor rentabilidad a nivel internacional. Este     modelo            de        producción     requiere          también           unos mecanismos       que desnaturalizan y el carácter artístico del producto: Brevedad: en radio y televisión, los motivos y temas han de ser breves para ajustarse a lo que dura el spot. Niveles sonoros elevados: por ejemplo, la música de trailers para atraer espectadores, con música épica. Vacuidad de mensajes: inmediatez    y necesidad de consumo rápido, para generar deseo de algo nuevo. Facilidad de lectura: se busca el placer sensorial pero no hay planteamientos profundos.

1.4       Canales de distribución: Las principales productoras de contenido audiovisual, sobre todo cine, son seis compañías: 20th Century Fox, Sony-Columbia Pictures, Paramount Pictures, Universal, Warner Brothers, y Walt Disney. El modelo de negocio que llevan a cabo estas majors, según Teresa Ojer y Elena Capapé (2012), las otorga una influencia a nivel mundial. Esto es debido a la estructura vertical, es decir, controlan todos los procesos de creación, desde la idea hasta cómo va a ser la exhibición en cine y otros medios. Normalmente cada una se compone de compañías que se dedican a cada uno de los sectores (producción, distribución y exhibición). Al contar con unos enormes presupuestos pueden permitirse que alguna película no obtenga beneficios, porque siempre hay algún éxito que lo compensa con creces. A la hora de distribuir, las majors se aseguran de todas las producciones llegan a exhibirse, y además juegan con la ventaja de que venden paquetes de producciones. Si un exhibidor está interesando en una superproducción tendrá que comprar otras películas de menor calidad. Esta estructura está consolidada en Estado Unidos, pero según Ojer y Capapé (2012) se replica en todo el mundo, de tal forma que llega a una cantidad ingente de espectadores a nivel global (salvo la India, donde el modelo hollywoodiense no ha conseguido asentarse). Este planteamiento de negocio hace que muchas superproducciones estén dirigidas a potencialmente todo el mundo, llegando a acuerdos con distribuidoras de cada país, y asegurando unos ingresos que llegan a ser más de la mitad a nivel internacional. Las economías de alcance son muy eficaces en los medios audiovisuales, y consisten en exportar un producto que ha sido explotado en un mercado y trasladarlo a otro para seguir obteniendo beneficios. Así, las majors consiguen aumentar la recaudación mediante la venta de los derechos a la televisión, la venta en soporte físico o en soporte digital. Estas ventanas han ido modificándose con el paso de los años. Tradicionalmente, las películas de las majors se estrenaban en Estados Unidos y a los pocos meses llegaban a otros países. Debido a la piratería, se cambió el modelo y los estrenos hoy día son prácticamente simultáneos. Una vez se ha estrenado en salas de cine, se espera unos seis meses para la explotación en exclusiva en la modalidad de pay per view. Otros seis o nueve meses después, la película pasa a estar disponible para alquiler. Un año más tarde, se podrá emitir en los canales de televisión de pago. A partir de ese momento las televisiones generalistas pueden pujar por adquirir los derechos de emisión. Además, este modelo de explotación incluye el merchandising, que es otra vía más de ingresos de los estudios. Cuanto mejor funcione una película en taquilla, mejor funcionará en las otras ventanas. Las grandes majors no permiten que haya nuevos competidores y controlan el 80% del cine, el 70% de la ficción televisiva, y el 50% de la producción musical, según un estudio de Pardo citado por Ojer y Capapé (2012). Fueron adquiridas en los ’90 por grandes grupos de comunicación estadounidenses, siendo hegemónicas en el mercado audiovisual. Su éxito se basa en la distribución de los contenidos, y no solo producen las obras, sino que poseen los derechos de explotación de la obra a nivel internacional y a todos los niveles posibles. En los últimos años, este sistema de distribución se ha visto alterado con la aparición de servicios de streaming como Netflix, que ha cambiado el panorama a nivel internacional. A partir del modelo de suscripción que era popular en Estados Unidos, se cambia de un modelo cerrado a uno abierto. HBO fue y sigue siendo un canal de cable que sacó más adelante su servicio de streaming. La fusión de televisión e internet da como resultado la IPTV que va a crecer exponencialmente en la última década. Ofrece muchas ventajas como numerosos canales, gran calidad de imagen, integración de internet en la pantalla del televisor, y sobre todo la posibilidad de tener una televisión a la carta (video on demand).

2.         ASPECTOS LEGALES DE LA MÚSICA EN LOS MEDIOS AUDIOVISUALES. 2.1       Marco normativo: Lo primero que debe conocer un autor, es todo aquello referido a la propiedad intelectual, que incluye todos los derechos de creación de una obra, entre ellos los derechos de autor. En España la Ley de Propiedad Intelectual se aprueba en 1987 (Ley 22/11), siendo reformada en 1996 (Real decreto legislativo 1/96), aclarando y regularizando las diferentes disposiciones legales que había al respecto. Estas reformas son consecuencia de la pertenencia de España a la Unión Europea, que afronta en esos años un cambio a nivel legislativo debido a la revolución tecnológica que estaba comenzando. En 2014 se vuelve a modernizar la Ley (21/2014), modificando una serie de puntos: Tasa Google: para servidores de internet que agregan noticias, como Google News. Google ha dejado de incluir noticias de diarios españoles. Ley de enjuiciamiento civil (1/2000): anteriormente piratear material audiovisual no era delito. A partir de 2014 se pena con hasta 600.000 a las personas que compartan en la red material con derechos de autor. Numerosas webs cierran. Eliminación del canon digital: se trataba de un impuesto indirecto añadido a los soportes de grabación como los CD’s y DVD’s grabables. Se sustituye por la compensación por copia privada con cargo a los presupuestos generales del estado. Normativa de control estricta sobre las entidades de gestión de propiedad intelectual, a las que se les obliga a rebajar tarifas. Campus virtuales: el canon AEDE permite a las universidades utilizar materiales con propiedad intelectual.

2.2       Conceptos básicos sobre propiedad intelectual: Una obra es el objeto de la propiedad intelectual, y aquí se engloban todas las creaciones de carácter literario, artístico, científico, etc. expresados por cualquier medio o soporte, tangible o intangible, y que comprenden los siguientes tipos: Libros, folletos impresos, escritos, discursos, etc. Composiciones musicales con o sin letra. Obras dramáticas o dramático-musicales, coreografías, pantomimas y obras teatrales. Obras cinematográficas o de carácter audiovisual. Esculturas y obras de pintura, dibujo, trabado, litografía, historias gráficas (cómics, tebeos, etc). Proyectos, planos, maquetas, diseños de ingeniería y arquitectura. Gráficos, mapas y diseños topográficos, geográficos o científicos. Obras fotográficas y expresadas por procedimientos análogos. Programas de ordenador. El título de una obra, si es original, también queda incluido dentro de ella. También están protegidos con la propiedad intelectual: Traducciones y adaptaciones. Revisiones, actualizaciones y anotaciones. Compendios, resúmenes y extractos. Arreglos musicales. Transformaciones de obras literarias, artísticas o científicas. Un autor es la persona natural que crea una obra literaria, artística o científica. Titular original de la propiedad intelectual. Cuando esa persona crea una obra, adquiere esos derechos de propiedad intelectual. El autor aparece como tal en la obra, mediante su nombre, firma o signo que lo identifique. La ley distingue estos tipos de autor: Compositor: creador de la música entendida como melodía y armonía. Letrista: creador del texto de una canción. Adaptador: autor de alteraciones de una obra original, dando lugar a una obra deriva, por ejemplo, una traducción. Arreglista: composición musical para uno o más instrumentos partiendo de una melodía y armonía preexistentes. La ley también distingue entre varios tipos de derechos de autor: Derechos morales: irrenunciables e inalienables. Tienen vigencia durante la vida del autor y 70 años después de su muerte, para proteger el carácter de la obra. La ley habla de: Divulgación: derecho a decidir si la obra se divulga o no, y cómo, cuándo y de qué manera, incluyendo qué nombre. Autoría: derecho a determinar si la obra se divulga bajo el nombre del autor, un pseudónimo o anónimamente. Paternidad: derecho a exigir la autoría de una obra. Integridad: derecho a no permitir alteraciones de la obra que puedan suponer un atentado a los intereses o reputación del autor. Modificación: derecho a cambiar la obra por parte del autor si no está satisfecho con el resultado, respetando derechos que puedan haber adquirido terceros y las normas sobre bienes culturales. Arrepentimiento: derecho a retirar la obra del mercado, previa indemnización a los titulares de los derechos de explotación y teniendo en cuenta que si se retoma la misma, primero se debe ofrecer a los anteriores titulares a un precio similar. Acceso a un ejemplar único: el autor tiene derecho a acceder a un ejemplar único y raro de la obra si está en poder de un tercero que quera ejercer derechos sobre la obra. Susceptible de indemnización por daños y perjuicios. Derechos patrimoniales o de explotación: protegen los intereses del autor respecto a los beneficios económicos generados por la obra. Su vigencia en España es durante la vida del autor y 70 años después de su muerte. A partir de ese momento, la obra para a ser de dominio público. Estos derechos son susceptibles de cesión, mediante la firma de un contrato de explotación, pero no de venta permanente. Así se vincula el éxito de una obra con el del autor. La ley distingue los siguientes derechos: Reproducción: derecho a fijar la obra en un soporte que permita su comunicación y reproducción. Distribución: derecho a poner a disposición del público general la obra original o copias de la misma mediante venta, alquiler, préstamo, etc. Comunicación pública: derecho a que una pluralidad de personas puedan acceder a la obra, como por ejemplo un concierto. Transformación: traducción, adaptación que modifique la obra. Remuneración por copia privada o alquiler: la ejerce una entidad de gestión. El intérprete es aquella persona que represente, cante, lea, interprete o ejecute de cualquier forma la obra. Trabaja a partir de una obra que ha sido previamente creada, que ya tiene un autor. La interpretación conlleva unos derechos (derechos afines) por el toque personal que aporta a la obra. Para que ello suceda deben quedar registradas en un soporte. Derechos afines (del intérprete): protegen los derechos de la persona que interpreta una obra. Los derechos morales tienen validez durante la vida del artista y durante 20 años después de su muerte. Tiene derecho a: Al reconocimiento de su nombre en todas sus interpretaciones y ejecuciones. A oponerse a todas las acciones que atenten contra su interpretación.
A autorizar el doblaje de su actuación en su propio idioma. Respecto a los derechos patrimoniales o de explotación, tienen validez durante la vida del intérprete y 50 años después de su muerte. Son los siguientes: Autorizar la fijación en un soporte. Autorizar la reproducción de su actuación. Autorizar su distribución. Autorizar la comunicación pública.   Remuneración por copia privada. Remuneración por alquiler. Autorizar la distribución por cable

2.3       Propiedad intelectual en los medios audiovisuales: Respecto a la propiedad intelectual, hay que saber que no es necesario ni obligatorio registrar una obra para protegerla. Es aconsejable de todas formas. La obra se protege por el mero hecho de ser creada, y la inscripción en el Registro de la propiedad intelectual es opcional. Al hacerlo se obtienen una serie de beneficios. Por una parte sirve como prueba legal de que los derechos inscritos pertenecen al titular, y por otra para dar publicidad a los derechos inscritos. Para cobrar los derechos que generan sus obras, tanto los autores como los intérpretes deben darse de alta en una entidad de gestión que va a servir de intermediaria. Estas entidades de gestión no tienen ánimo de lucro, y por ley tienen por objeto “la gestión de derechos de explotación u otros de carácter patrimonial, por cuenta y en interés de varios autores y otros titulares de derechos de propiedad intelectual”. En España existen ocho entidades de gestión aprobadas por el Ministerio: De autores: SGAE (Sociedad general de autores y editores), CEDRO (Centro español de derechos reprográficos), VEGAP (Visual entidad de gestión de artistas plásticos). DAMA (Derechos de autor de medios audiovisuales). De artistas intérpretes o ejecutantes: AIE (Artistas intérpretes o ejecutantes, sociedad de gestión), AISGE (Artistas intérpretes, entidad de gestión). De productores: AGEDI (Asociación de gestión de derechos intelectuales), EGEDA (Entidad de gestión de derechos de los productores audiovisuales). La SGAE fue fundada en 1899 y tiene a más de 100.000 asociados, entre compositores, coreógrafos y otros autores. Los derechos que gestiona la SGAE son los siguientes: El derecho de comunicación pública de las obras. El derecho de reproducción mecánica. El derecho de remuneración compensatoria por copia privada. La SGAE tiene una serie de competencias según el tipo de obra artística: Obras de gran derecho: obras literarias dramáticas, dramático- musicales, coreográficas y pantomímicas. En este caso la autorización para la explotación de estas obras, y sus condiciones, quedan en mano de sus titulares. Obras de pequeño derecho: obras musicales, canciones, etc. En este caso la SGAE da las licencias de uso sin necesidad de consultar al autor, de acuerdo a sus tarifas. El editor musical es aquel que, en virtud de la cesión exclusiva de los derechos de explotación que realiza el autor a su favor, se dedica a presentar las obras de este en el mercado e intenta que formen parte de proyectos discográficos, musicales o publicitarios. El autor cede, pero no vende, los derechos de explotación a una empresa (normalmente una discográfica o editorial) que, a cambio de ellos, le paga la producción y promoción de la obra artística. Las funciones de un editor son las siguientes: Proporcionar protección jurídica.

Editar gráficamente la obra. Explotar comercialmente la obra. Gestionar los derechos de explotación. Desarrollar la carrera del creador. El porcentaje habitual para el editor es el 50% de los derechos. Según el volumen de trabajo y el público al que se dirigen, distinguimos varios tipos de editoriales musicales: Multinacionales (copan el 85% del mercado): Universal Publishing, Ariola Sony BMG, Warner Chappell. Independientes: Peermusic, Ediciones Quiroga, Clippers.. Autor/editor (autogestión): el autor crea su propia editora. Editoriales de los medios de comunicación: para la música que se crea en televisión. Los derechos que se ceden a las editoras son: Comunicación pública. Reproducción. Transformación. Distribución. El autor se reserva siempre los derechos morales y la capacidad de ejercerlos. Otro derecho que se puede incluir en los contratos editoriales es el derecho de sincronización. Consiste en la capacidad de juntar una obra musical con una obra o imágenes en el ámbito audiovisual. Por ejemplo, para añadir una obra musical a una producción publicitaria. El contrato entre el editor y el productor audiovisual suele incluir:

Cesión no exclusiva del tema. Remuneración a tanto alzado (sin contar posibles derechos de exhibición y transmisión). Editor y productor determinarán la duración de la cesión, el número de pases y el ámbito geográfico.

2.4       El productor audiovisual: El presupuesto destinado a la música de una obra audiovisual varía en cada caso, no está estipulado en ninguna norma, ni depende de porcentajes fijos. En la práctica, se suele situar entre el 5% y el 10% respecto al presupuesto total. Hay que tener en cuenta que las cantidades son en bruto de las que hay que deducir el pago de impuestos, la contratación de músicos y técnicos y el alquiler del estudio. El compositor puede negociar un acuerdo más favorable acordando que sus honorarios sean netos y que no prevean los pagos a terceros. Si el compositor debe pagar a terceros (músicos, por ejemplo), el productor suele adelantar una parte del presupuesto dedicado a la música para este menester. El productor audiovisual trabaja con empresas proveedoras de servicios de postproducción de imagen y sonido, y se establecen unas condiciones de facturación y pago de servicios acordes a las necesidades de la producción. Normalmente, al trabajar por encargo, se obliga al compositor a que su música se grabe en los estudios con los que colabora el productor audiovisual. El productor musical o la productora de la obra audiovisual, siguiendo las indicaciones del compositor, se ocupará de contratar a los instrumentistas y al director musical si fuese necesario. El productor paga los gastos del compositor que no estén vinculados directamente a los servicios de composición e interpretación. Puede ocurrir que el compositor se responsabilice de organizar totalmente la producción musical. Para ello, deberá asumir la contratación de todos los servicios necesarios (alquiler de los estudios de grabación, del personal técnico, de los músicos, etc) y es habitual que se subcontrate a terceros. Los gastos derivados de la composición y la interpretación de las pruebas y maquetas corren a cargo del compositor. Es habitual eliminar bloques musicales, cambiarlos de sitio o pedir que se vuelva a componer un bloque ya finalizado. Los contratos de composición musical por encargo de música audiovisual suelen incluir una cláusula en la que el productor se reserva el derecho a no utilizar la música original creada por el compositor y autorizar la utilización de obras musicales de terceros si el productor considera que es más adecuado. Este tipo de cláusulas en los contratos permiten al productor no utilizar trabajos no deseados y tener un control total a nivel artísticos de la obra en su totalidad. En el caso de que se suprima la música por la cual se ha contratado a un compositor parcial o totalmente, no supone en ningún caso el impago de la cantidad acordada contractualmente al propio compositor y al equipo que ha participado en la grabación. Los derechos que se suelen ceder a los productores son: Derecho de reproducción: comprende la fijación de las obras musicales en un máster para obtener copias; la exhibición en salas y lugares públicos; la emisión por televisión, cable, satélite y mediante redes telemáticas, para todos los países del mundo y sin otra limitación de tiempo que la que se establece por ley y en otros tratados internacionales sobre propiedad intelectual. El derecho de distribución: comprender la distribución al gran público de ejemplares o copias de la obra audiovisual en diversos soportes, sin limitación de territorio ni tiempo. No puede ser objeto del contrato cualquier cesión sobre soportes futuros no conocidos en el momento de la cesión, quedando excluida a todos los efectos. Derecho de adaptación: comprende cualquier nueva versión o modificación de la obra audiovisual original, siempre que no atente contra los derechos morales del autor, sin limitación de tiempo o territorio.  Se discute si el derecho de comunicación pública debe ser objeto de cesión. Hay productores que consideran que sin la cesión de este derecho no se puede difundir una obra audiovisual, pero no es correcto. Confunden entre causa y efecto, puesto que, como cesionarios de los tres derechos descritos anteriormente, no encontrarán limitación alguna para la difusión de las obras audiovisuales. La comunicación pública es el resultado de la reproducción y la distribución de una obra audiovisual que va a generar rendimientos económicos a sus autores como resultado de su difusión. Por lo tanto, la cesión del derecho de comunicación pública no favorece en absoluto a los legítimos intereses de los autores, y es que, además, no otorga al productor ningún beneficio a la hora de difundir o comercializar una obra audiovisual.


TEMA 6. 1.         PATRIMONIO MUSCAL. 1.1       Conceptos y definiciones: Para comenzar este tema, vamos a definir conceptos clave relacionados con el término patrimonio. Patrimonio: todo testimonio, sea cual sea si naturaleza, capaz de dar información sobre el pasado de la humanidad. Nos permite recrear una sociedad antigua, sus hábitos, los hechos que acontecieron, etc. Es un concepto que ha evolucionado en la historia. Patrimonio cultural: es el conjunto de bienes y valores que una sociedad considera que han de ser protegidos, y que son fruto de un proceso de desarrollo y acumulación, e incluyen objetos y manifestaciones tangibles e intangibles que ha producido esa sociedad como resultado de su evolución histórica, y que dan un país o región una identidad propia que la diferencia de otras. No se incluyen solo las manifestaciones culturales que se conservan sino también las presentes, es decir, el patrimonio vivo. Patrimonio musical: no es un término reconocido por diccionarios o enciclopedia de referencia. Tiene que ver con las tradiciones, el repertorio, las partituras y documentos gráficos o escritos propios de cada región o país. Se integra dentro del patrimonio cultural, especialmente tras el Convenio de La Haya de 1954 de Protección de los Bienes Culturales. Patrimonio musical hispano: se refiere a un conjunto de bienes y sus manifestaciones inmateriales producidos por una sociedad hispana a través de su historia, que contribuye a identificar y diferencia su cultura. Debe ser protegido, conservado y difundido. La administración debe poner los medios necesarios para conservar este legado. Está integrado por los siguientes elementos: Fuentes monumentales.  Fuentes documentales.  Fuentes iconográficas.  Fuentes organológicas.  Fuentes sonoras.  Fuentes de tradición oral.  Para velar por la preservación del patrimonio musical español es necesario saber qué se considera música española y dónde ponemos los límites. Si atendemos al orden jurídico, las leyes consideran “español” a toda persona nacida en España, sin ser hijo de padres extranjeros, persona nacida en el extranjero de padres españoles, y persona extranjera nacionalizada española.  Si atendemos a un criterio geográfico o territorial, la música española seria: Música aportada a través de los siglos precedentes, incluyendo los invasores del territorio. Música española que nuestros antepasados llevaron a otros países o continentes, donde acaban adquiriendo unas características particulares. José Subirá define la música española como “toda aquella que se produjo o enseñó en territorio español, fueran o no indígenas de quieren la cultivasen, puesto que de manera consciente o inconsciente contribuyeron a estructurar y modelar el alma musical española y a modificar su fisonomía o alterar sus caracteres en el transcurso de los siglos”.

1.2       Tipologías y agentes implicados: Ray Edmonson (2014) aplica el término audiovisual para referirse a un centro o departamento dedicado a: Recopilar documentos audiovisuales de manera organizada. Gestionar los fondos y los servicios derivados de su gestión, creando bases de datos y ofreciendo a los usuarios dichos servicios. Conservar los fondos. Difundir  los       contenidos      recopilados,    bien     sea       gratuitamente o comercializándolos. Para delimitar qué se considera un documento audiovisual, Edmonson (2014) distingue los siguientes tipos: Archivos de radiodifusión: inventario de programas de radio y TV, tanto programas emitidos como materiales grabados para realizar las producciones audiovisuales. Archivos de programación: archivos de cine o TV con un programa documentado de proyecciones que tienen lugar en lugares públicos. Por ejemplo las filmotecas. Museos audiovisuales: preservan maquinaria técnica y artículos relacionados con estrenos. Se utilizan imágenes y sonidos para acompañar los objetos. Archivos audiovisuales nacionales: organismos que conservan y hacen accesible públicamente el patrimonio audiovisual de un país. Archivos universitarios y académicos: grabaciones para el desarrollo de la actividad universitaria. Archivos temáticos: especializados en un tema o materia, como colecciones etnográficas. Archivos de estudios: las grandes productoras conservan el material audiovisual de sus producciones, creando departamentos que lo conservan y clasifican. Archivos regionales y municipales: específico de lugares concretos, sobre todo para preservar las tradiciones populares. Bibliotecas y museos generalistas: tienen un archivo audiovisual, aunque a veces es difícil acceso si no hay un departamento que se dedique en exclusiva a mantenerlo. Por tanto, las principales instituciones que se dedican a la conservación del patrimonio audiovisual son: Filmotecas.  Bibliotecas.  Archivos públicos y privados (administraciones públicas, productoras, coleccionistas) Museos.  Cadenas de televisión y radio. La UNESCO es una organización internacional que trata de que los archivos audiovisuales tengan un reconocimiento de carácter cultural y jurídico. En los últimos años, a nivel europeo, se han promovido varias leyes y disposiciones, la más importante en 2001 cuando el Consejo de Europa aprueba el Convenio Europeo para la protección del patrimonio audiovisual, que establece que los países deben implantar el depósito legal obligatoriamente para preservar su patrimonio audiovisual.

2.         CONSERVACIÓN DEL DOCUMENTO SONORO: Documento sonoro es cualquier tipo de sonido que es registrado en un soporte físico que se puede conservar y reproducir mediante los medios técnicos que lo permitan. Uno de los problemas que ha arrastrado la conservación del sonido es la fragilidad de los soportes para registrarlos. Utilizarlos en numerosas ocasiones los deteriora y antiguamente las condiciones de almacenamiento no eran las mejores. Esto implica realizar copias de seguridad. Además, la aparición de nuevos soportes crea la necesidad tanto de traspasar las obras a soportes más modernos, como de conservar y mantener en funcionamiento equipos técnicos que permitan reproducir los soportes anteriores. Podemos distinguir entre estos tipos de documentos sonoros: Grabaciones comerciales: destinados a su difusión y venta masiva. Los encontramos en las tiendas especializadas o grandes almacenes: CD’s, vinilos, cintas. Contienen música de toda clase de géneros, desde música pura a música para artes escénicas o audiovisuales. Están sujetos a depósito legal y se crean a partir de un máster que permite generar las copias que se necesiten. Grabaciones no comerciales: materiales únicos que no se publican o salen a la venta. Además de grabaciones musicales, podemos encontrar testimonios grabados, transcripciones, grabaciones de campo de investigadores, locuciones divulgativas, programas de radio o anuncios (paralelos de antena: las cadenas graban y conservan todo lo que emiten diariamente), originales máster que dan lugar a las copias comerciales, o grabaciones domésticas.

2.1       Soporte mecánico: Se basa en una aguja que se activa con las vibraciones sonoras, que va dejando una huella en el soporte: Cilindros de fonógrafo: hechos de estaño, cera sobre cartón o celuloide. Se utilizan entre 1877 y 1929. Inestables. Han quedado obsoletos.Discos de laca: hechos de laca, utilizados entre 1888 y 1960. Discos de gramófono o pizarra. Velocidad de 78 rpm. Diferentes diámetros. Obsoletos. Discos de acetato: acetato sobre aluminio, zinc o vidrio. Utilizados desde los años 40 hasta los años ’60. Permiten grabación y reproducción inmediata. Varios diámetros. Muy frágiles por el acetato, que se degrada fácilmente. Discos de microsurcos: vinilo o poliestireno: funcionan a 33 1/3 o 45 rpm. Pueden deteriorarse a altas temperaturas. Se pueden combar si se almacenan horizontalmente o inclinados. Sigue vigente.

2.2       Soporte magnético: Material elástico o rígido cubierto de un polvo magnético en el que se fija la señal sonora. Se pueden diferenciar los siguientes: Hilo magnético: alambre de acero, usado entre 1898 y 1940. Muy escaso, soporte fino sobre el que se graba el sonido. Susceptible a la oxidación. Cinta magnética abierta: Base de celulosa, PVC, poliéster o mylar. Utilizado desde 1935. Diferentes tamaños que funcionan a diferentes velocidades. Regrabable y produce gran calidad de sonido. Muy frecuente en archivos sonoros profesionales, no se ha utilizado tanto para comercializar. Cinta magnética de casette: poliéster, usado desde 1963. Cinta de 3,8 mm alojada en una carcasa de plástico. Las hay de diferentes duraciones, desde 45 a 120 minutos. Calidad inferior a la cinta abierta y el disco, pero muy apta para la comercialización masiva de música y su utilización doméstica.

2.3       Soportes ópticos: La tecnología óptica se desarrolla en los años ’80 del siglo XX cuando Sony y Philips crean un disco óptico regido por procedimientos digitales a la hora de grabar y leer datos. En el caso del CD-ROM se trata de un molde de plástico con una espiral continua en cuyas hendiduras se guardan los datos. Un haz de rayos láser lee esos datos sobre la capa reflectante. Como ventajas, cabe destacar su gran capacidad de almacenamiento respecto a soportes anteriores, son discos de tamaño reducido, lo cual facilita su almacenamiento, no tienen los inconvenientes de las grabaciones mecánicas que se deterioran con su uso, y en el caso de grabaciones sonoras eliminan los inconvenientes del ruido residual. Existen varios tipos de soportes: Discos ROM: capacidad de almacenamiento de 650 MB o 74 minutos de audio. Datos permanentes. El DVD  es una evolución del Laser video disc (LVD), discos para almacenar imágenes. ROM viene de read only memory. Hoy día el DVD ha sido superado por el Blu-Ray disc que puede llegar a almacenar hasta 100GB en discos de cuatro capas. Su fin es la producción industrial masiva. Soportes ópticos de grabación única: los más utilizados son los CD-R. Mismo formato que el CD-ROM, se usan desde 1993, la grabación no puede ser alterada o borrada. Hay cintas ópticas que pueden almacenar hasta 100 GB pero su tiempo de acceso de lectura de datos es lento. Sistemas ópticos de grabación múltiple : pueden ser alterados y borrados varias veces. Hay varios formatos: disco reescribible (CD-RW), disco magneto-óptico y de cambio de fase. Los más comunes son los discos magneto ópticos, en los que el proceso de grabación consiste en un haz de rayos láser que cambia la polaridad de la superficie magnética. La tecnología de cambio de fase permite un tiempo de acceso menor y una capacidad mayor, y se encuentran en los DVD- RAM.

2.4       La era digital: Con la llegada de la tecnología digital, y con el ánimo de conservar material sonoro en formatos obsoletos, se plantea la necesidad de convertirlo a formato digital. Antes de realiza el proceso, hay que tener en cuenta unas variables importantes: El rango dinámico del documento sonoro.  Si se va a aplicar compresión o no, la pérdida que puede generar. El tamaño que va a ocupar el archivo. El tipo de archivo que se va a generar, y el códec que se va a utilizar. Por ejemplo. Si optamos en audio por archivos sin perdida debemos convertir el documento sonoro a un archivo mediante los códecs PCM o APE, mientras que si optamos por la compresión, debemos elegir entre DPCM, ADPCM, Ogg Vorbis, audio MPEG u otro formato. Para conservar todas las propiedades se recomienda digitalizar el disco máster sin compresión, utilizando un archivo WAV de Mocrosoft, AIFF de Apple u otro que garantice una calidad de 24bits estéreo con un muestreo de entre 48 a 96 Khz. Estos valores los marcan dos organismos internacionales: La Audio Engineering Society (AES) y la International Association of Sound and Audiovisual (IASA). Hay expertos que recomiendan que si un archivo sonoro se va a someter a un proceso de restauración digital, debe realizarse con una frecuencia de 192 Khz, y en cualquier caso no utilizar una calidad inferior a 96Khz, 24 bits de profundidad y formato de datos PCM lineal. Otras cuestiones que hay que tener en cuenta son las siguientes: Si el archivo va a estar disponible para descarga o en streaming: si no queremos que el archivo se descargue por temas de derechos de autor, es posible dejar la opción de reproducirlo. Tamaño del fichero: En función de si vamos a almacenar el archivo comprimido o no, nos ocupará más o menos espacio, siendo el formato WAV mucho más pesado que el mp3, por ejemplo (suele ocupar 10 veces más como mínimo)

3.         FUENTES SONORAS. 3.1       Archivos y colecciones patrimoniales: Instituciones o departamentos se dedican a guardar documentos audiovisuales por su valor histórico, cultural, comercial o científico. Aquí podemos encontrar emisoras de radio que ya no existen, documentación para investigaciones científicas, documentos sonoros administrativos, etc. Estos se conservan en: Archivos históricos de instituciones o empresas. Colecciones privadas (centros de investigación, Universidades, etc). Secciones de sonido en bibliotecas. Fonotecas.  No tienen como fin comercializar los sonidos. Permiten en ocasiones cesiones gratuitas de los derechos de publicación. No suelen tener todo el catálogo accesible online.

3.2       Bancos sonoros comerciales o de uso libre: También conocidos como Sound libraries, librerías o bibliotecas de sonidos. Estas compañías adquieren sonidos en depósito o propiedad, y gestionan los derechos de su uso. Son bases de datos muy útiles para producciones audiovisuales, donde hay música de todos los géneros, efectos sonoros, atmósferas, etc. Muy utilizadas por cadenas de radio, TV, productoras de cine, publicidad, videojuegos, etc. La venta se solía realizar mediante un soporte físico (CD) pero hoy día casi todo es digital. Pueden ser “royalty free” o con derechos gestionados. Se recurre a estas empresas para no pagar derechos a otras empresas. Si se utilizan en la radio pueden requerir permisos o derechos adicionales.

3.3       Fondos radiofónicos, de prensa y otras empresas: Las emisoras de radio comienzan a grabar sus programas cuando la tecnología lo permite. En un primer momento se graban para una posterior reemisión, al igual que sucede en la televisión. Además en las cadenas de televisión también tienen bancos de sonidos para realizar programas posteriores. Hoy día incluso las páginas web crean fondos sonoros para acompañar sus noticias. La conservación de documentos sonoros en empresas de comunicación responde a dos cuestiones: Tener         material           sonoro para     laborar programas       radiofónicos   o audiovisuales. Conservar el patrimonio de la emisora y su difusión a nivel científico y cultural. El problema es que si se graba todo se va acumulando mucho material que requiere organización y selección periódicamente. Esto implica el conocimiento de los fondos, la organización precisa y la aplicación de procedimientos de tratamiento documental para una rápida organización. Respecto a los fondos sonoros en las cadenas de radio, podemos distinguir entre: Fondos musicales: suele ser muy amplio, se guardan tanto las canciones o la música emitida como aquella que sirve de acompañamiento. Fondos no musicales o de palabra: permite reutilización de testimonios, reportajes, etc. En España un fondo sonoro de gran importancia es el de Radio Nacional de España. A través del enlace verás que muchos de sus programas son accesibles online, con posibilidad de descarga.

4.         CONSERVACIÓN DEL DOCUMENTO AUDIOVISUAL: Los documentos audiovisuales normalmente han tenido dos formatos básicos de registro: el cinematográfico y el vídeo.

4.1       Soportes cinematográficos (película): La conservación de películas también ha conocido varias fases, desde las primeras películas hasta la era digital. Las películas se almacenan en un carrete y se enrollan en una carcasa de plástico con forma circular. Los materiales que se han ido utilizando como soporte han sido los siguientes: Nitrato de celulosa (1891-1951). Acetato de celulosa (1909-). Triacetato (1948-). Poliéster (1955-) A la hora de almacenar, hay que tener en cuenta el tamaño o ancho de banda. Los más utilizados son: 16mm: usado desde 1923. Acetato. Cine profesional y aficionado. 8mm: desde 1932. Acetato. Aficionados. Super 8mm. Desde 1965, acetato. Solo aficionados, área mayor que 8mm.  35mm: desde 1891, solo cine profesional. El más habitual y utilizado. Nitrato de celulosa, acetatos de celulosa o poliéster. 65 o 70mm: desde 1970, poliéster. Formato que ofrece mucha calidad, pero que eleva el coste. Utilizado en sistemas IMAX. También es importante a la hora de conservar el material, cómo debe reproducirse. Además del formato hay varios tipos de perforaciones. Otras cuestiones a tener en cuenta: Orientación del paso: película horizontal o vertical (la más normal) Velocidad de filmación y proyección: en el cine mudo se comenzó con 12 hasta 20 fotogramas por segundo. Es estándar hoy día son 24 fotogramas por segundo. Formato: dimensiones que definen el área de imagen. En cine hoy día es 1,37:1, en la televisión de pasó de 1,33:1 (4/3) a 1,77:1 (16/9). Otros formatos usados en el cine son el panorámico (1,66:1 o 1,85:1) y el anamórfico (2,55:1)

4.2       Vídeo: El sistema de vídeo permite almacenar y reproducir información audiovisual en formato electrónico. Muy ligado a la evolución de la televisión. Cada país ha desarrollado un estándar de emisión, que regula los aspectos técnicos de la imagen. Según el país varía el sistema: NTSC: 525 líneas y 29,97 frames por segundo. Utilizado en EEUU y Asia.  PAL: 625 líneas y 25 cuadros por segundo. Europa y parte de Asia y África. SECAM: 625 líneas y 25 cuadros por segundo. Francia y otros países de Asia y África. Sistemas de alta definición: La emisión comenzó en resolución HD (1050 líneas y 50 cuadros por segundo) y ha seguido evolucionando hasta alcanzar una resolución 4K. El soporte por excelencia utilizado en la grabación y conservación de vídeo es la cinta. Al igual que los soportes sonoros, ha sufrido una evolución tecnológica hasta que ha sido prácticamente sustituida por archivos digitales. 1956: Ampex desarrolla el magnetoscopio, para registrar imágenes en una cinta magnética. Sistema de grabación cuádruplex. 1962: Sistemas de grabación helicoidal.  1975: Desarrollo de sistemas profesionales de bobina abierta. 1979: Formato U-Matic. 1980: Sony comercializa el U-Matic HBVU-200 de alta banda, primer equipo portátil. Cinta protegida en una pletina. 1984: Betacam de media pulgada profesional. 1986: Panasonic y Sony lanzan sistemas MII y Betacam SP. Este último muy utilizado hasta que llegó la era digital. A nivel no profesional se desarrollan sistemas como el Betamax y el VHS. Los formatos magnéticos tienen el problema de la pérdida de calidad por el uso y por la realización de copias. El VHS, debido a la mayor capacidad de almacenamiento y una mejor gestión comercial, se consolida como el sistema preferido por los usuarios. Los soportes más utilizados de cinta digital fueron los siguientes: 1985: Formato D-1, estándar 4:2:2. Gran calidad pero ocupa mucho. 1986: Grabadora D-1 de Sony. 1989: Formato D-2. Resolución de 450 líneas. 1993: Formato D-5. 1995: DV o DVC: formato doméstico. 1996: DVCam de Sony. Cinta de 6mm. Hoy día solo se usan estos: Betacam Digital: Muy poca compresión, gran calidad. Betacam SX: 1993, compresión mpeg-2. DVCPRO: Panasonic. 1998. Perminte grabación en 16/9 y HD. MPEG IMX: cinta de media pulgada con compresión MPEG-2 y ocho canales de audio.

4.3       Sistemas digitales: A la hora de digitalizar información, debemos de tener en cuenta una serie de parámetros: Profundidad de bits: define el color y el contraste de la imagen. Por ejemplo 24bits. Resolución: podemos distinguir entre resolución estándar (SD) y alta (HD). Calidad DVD estándar sería 720x576 en formato PAL y HD comenzaría a partir de 1280x720. Actualmente ya se habla de resoluciones de 8K, y se venden televisores que aceptan esta resolución, aunque hay pocos contenidos disponibles. Tasa de frames por segundo: varía entre 50 y 60 si es un sistema progresivo, o 25 y 30 si es entrelazado. Se suele añadir a la resolución para indicarlo. Submuestreo de color (croma): cantidad de información de color respecto a la luz. Expresado en tres números. El estándar es 4:2:2. Compresión: se aplica para reducir el tamaño del archivos perdiendo la menor información posible. El estándar más utilizado es el MPEG2. Bitrate: velocidad de transferencia de datos: puede ser fijo o constante y tiene que ver con la compresión. Formato: hoy en día los más utilizados son el AVI, el MOV, el MKV, el WMV y el MP4.

5.         FUENTES AUDIOVISUALES: A la hora de acceder a bases de datos audiovisuales, debemos conocer previamente cómo funcionan y una serie de conceptos clave. Los sistemas dedicados a recuperar imágenes en movimiento pueden ser de dos naturalezas diferentes: Sistema lingüístico: Basado en una descripción y referenciado a partir de un análisis documental. En el texto se incluye una descripción, resumen, sinopsis o minutaje. En algunos casos también se incluyen notas del equipo de rodaje. Al realizar búsquedas en estos sistemas podemos combinar palabras. El sistema ofrece resultados en forma de keyframes, storyboard, o versiones (o fragmentos) a baja resolución. Un keyframe es un fotograma representativo y un storyboard una serie de keyframes (por ejemplo el primer plano de cada secuencia). Sistemas visuales: descripción automática, se recupera el documento audiovisual partiendo de atributos de la imagen en movimiento, que pueden tener con el tipo de plano, el movimiento de cámara, etc. Estas bases de datos las utilizan las productoras cuando tienen necesidad de utilizar imágenes de archivo y por ello es útil conocer las posibilidades de estas herramientas: la calidad técnica del vídeo, la calidad artística del contenido, los derechos a los que está sometido, la disponibilidad geográfica, el precio. Una vez que se ha evaluado hay bases de datos que permiten descargas para prueba y si es el archivo que la compañía busca, se realiza la compra.

5.1       Archivos y colecciones patrimoniales: Fondos custodiados y conservador por instituciones que preservan el patrimonio audiovisual. Pueden explotarlo cultural y económicamente. Aquí encontramos a las filmotecas, archivos históricos, colecciones privadas, centros de investigación y museos de cine y TV. Dependiendo de los derechos que posea la institución pueden comercializarlos o servir de intermediarios con los titulares. Se cobra por utilizar las imágenes y por suministrar una copia de calidad profesional. La Filmoteca Española tiene unas tarifas públicas establecidas por el Ministerio de Cultura para estos servicios. Hay instituciones que han digitalizado sus fondos y puede accederse a una copia en baja calidad a través de internet. Si no tienen derechos al menos hay que citar en los créditos la fuente de donde procede el material. Numerosas instituciones en España tienen una base de datos a nivel cultural de colecciones de imágenes en movimiento. Otras lo que hacen es depositar en los fondos de la Filmoteca Española sus fondos audiovisuales, como el Instituto Nacional de Industria. Las filmotecas son instituciones que conservan, difunden y custodian películas y otros materiales relacionados con el mundo del cine. Son fondos en continuo crecimiento, puesto que las películas de su ámbito geográfico se depositan allí. Sus funciones son: Recoger todo tipo de material audiovisual. Identificar, conservar y restaurar el material. Catalogar el material y documentación. Ayudar a los investigadores con un servicio de asistencia. Difundir la cultura cinematográfica, mediante salas especializadas y una programación regular. Cooperar con otras filmotecas a nivel nacional e internacional. Las filmotecas, además de películas, tienen en sus fondos otros materiales como vídeos, fotografías, carteles de cine, registros sonoros, programas y folletos de películas, guías, aparatos cinematográficos históricos, y un fondo bibliográfico en una biblioteca que está al servicio de los investigadores y del personal de la filmoteca. Las filmotecas también llevan a cabo una labor de inspección técnica sobre los materiales, que podemos resumir en estos puntos: Identificar datos filmográficos y administrativos (ficha técnica con el título, año de producción, nacionalidad, etc). Clasificar técnicamente las películas: material, formato de proyección, sistema de sonido, duración, soporte de reproducción. Evaluar el estado de conservación y cuidado del soporte físico. Evaluar el estado de materiales de protección. Determinar posibilidades y necesidad de utilización para usos como proyección, digitalización, copia y conservación. Relacionar el material con otro que se conserve en la filmoteca.

5.2       Fondos de televisiones: Básicamente son los fondos de las cadenas de televisión. Sirven para: Gestionar y conservar las producciones audiovisuales de la cadena. Crear bases de datos audiovisuales que puedan servir de apoyo. Recuperar documentos audiovisuales demandados por un usuario. Las cadenas de televisión suelen conservar sus archivos audiovisuales en cintas de vídeo analógicas o digitales, o digitalizado en ficheros. Este proceso es necesario a partir del comienzo de la emisión por TDT (Televisión digital terrestre) que ha precipitado la transición hacia un modelo digital total. Los contenidos se almacenan en servidores con discos duros de alta capacidad y en cintas digitales, siempre conectado a la red. Por tanto, las cadenas tienen dos tipos de fondos: cintas analógicas y digitales guardadas físicamente en videotecas, y fondos digitales almacenados en servidores online. Con esta cantidad ingente de información hay que decidir qué ser conserva y qué no. Por tanto vamos a distinguir entre archivos definitivos, que son las grabaciones de los programas que se emiten (paralelos), y los archivos temporales, que son otro tipo de contenidos, como por ejemplo: Copias de seguridad: copia del máster para evitar su deterioro. Hoy día no es necesario en formato físico sino que se hace digitalmente. Compactados telemáticos: los compactados son cintas editadas con grabaciones en bruto agrupadas por temática. Hoy día se guarda y clasifican este tipo de imágenes en discos duros. Grabaciones en bruto que se pueden utilizar para futuros usos. Copia legal: la ley la exige y debe conservarse al menos seis meses como prueba en los juzgados si fuese necesario.

5.3       Fondos varios: Hay numerosas bases de datos de imágenes en movimiento, como vimos antes webs como Gettyimages tiene una sección dedicada a vídeos con varios tipos de licencias. En el directorio FOCAL podrás encontrar un directorio con enlaces a varios de ellos.  Muchas cadenas de televisión tienen a la venta parte de sus fondos históricos en webs de este tipo, como la BBC. También se da el caso de productoras y agencias de noticias que tienen archivos audiovisuales propios para conservar el material producido y que también venden a cadenas de televisión. Las productoras de obras audiovisuales también tienen alojados en servicios como Gettyimages vídeos propios que ponen a la venta. Los noticieros cinematográficos o newsreels son informativos rodados hasta que se generalizó la emisión televisiva. En España tenemos el NO-DO (Noticiarios y documentales) que nos sirve para documentar en imágenes la vida en la sociedad española. Se realizaban intercambios de noticieros con otros países, de tal forma que en sus archivos encontramos también estas cintas. La titular es RTVE pero la custodia la realiza la Filmoteca Española. Hay otros noticiarios cinematográficos de inmensa importancia histórica: Pathé News (la British Pathé custodia los archivos británicos) Gaumont Pathé (archivo francés) British Movietone La FIAT (Federación internacional de Archivos de Televisión) se funda en Europa en 1977 y su finalidad es favorecer la cooperación entre los países miembros,       para     estandarizar    un        modelo,           intercambiar   documentos    o estudiar soportes de almacenamiento.

Entradas relacionadas: