Cuando
una emisora dispara y distribuye contenido, está tirando hasta el
95% de su materia prima. Para transmisiones en vivo, la cifra está
más cerca del 99%. Sin embargo, este activo masivo desperdiciado
podría monetizarse si cualquier persona, o mejor aún cualquier
cosa, puede acceder a él y compartirlo en línea dentro de la
compañía de medios.
La
tecnología está llegando en forma de algoritmos de aprendizaje
automático que permitirán la producción automatizada de videos
adaptados a individuos en plataformas específicas de medios
sociales, teléfonos inteligentes, canales transmitidos y TV.
El
presidente ejecutivo de TVU Networks, Paul Shen, dijo: “El
esfuerzo de localizar el contenido que ya ha rodado es a menudo más
costoso y potencialmente más lento que salir y volver a filmar el
material. Con la creciente demanda de los consumidores de contenido
de video personalizado combinado con las próximas redes 5G, producir
historias más sofisticadas más rápido será fundamental para
satisfacer al mercado. El primer paso en este camino debe ser indexar
todo”.
El
proceso de identificación y distribución de contenido de video para
que los productores de medios puedan seguir a su audiencia a
cualquier dispositivo que estén viendo en su contenido es posible
ahora, pero es una imagen fragmentada.
En
cuanto a codificación de estándares, hubo muchos intentos de
codificar estándares para metadatos en el pasado, más notablemente
un impulso por parte de la EBU para adoptar un estándar conocido
como EBU Core. También hay formatos descriptivos y de derechos
comunes bien establecidos que incluyen TVA y ADI, e identificadores
comunes como EIDR (Entertainment ID Registry) e ISAN, y, por
supuesto, muchos estándares técnicos de metadatos.