IBM incorpora capacidades cognitivas a su tecnología de video en la nube

Con experiencia de visualización diferenciada y personalizada, proporciona lectura de medios sociales y comprensión profunda del contenido de video, así como a reacciones de espectadores, en tiempo real.

IBM reveló el 25 de octubre nuevos servicios cognitivos empoderados por Watson para su tecnología de video en la nube que están diseñados para transforma la manera en la que las organizaciones descifran vistas enriquecidas en datos para el contenido y para sus audiencias de video. Los nuevos servicios pueden ayudar a entregar experiencias de video diferenciadas, personalizadas para los consumidores.

El video digital es un área en crecimiento por la creación de contenido, pero permanece en gran parte sin explotar para fines de información de retroalimentación de inteligencia, pues forma parte del 80 por ciento de data no estructurada en el mundo, lo que la hace complicada de procesar. Se considera que aplicar tecnología cognitiva, es un siguiente paso clave para extraer y analizar la compleja data en los videos a fin de que las compañías puedan entenderla mejor y entregar el contenido que los consumidores desean.

“Las compañías están creando vastas cantidades de video con data valiosa, pero no tiene una forma de identificar fácilmente esa información o la reacción de la audiencia a ella,” dijo Braxton Jarrat, gerente general, IBM Cloud Video. “Los servicios actuales son un gran paso hacia el uso de las capacidades cognitivas y de nube de IBM a fin de ayudar a las compañías a descifrar información significativa acerca de sus videos y sus espectadores para que puedan crear y curar más contenido personalizado de interés para determinadas audiencias”.

Accesible por medio de IBM Cloud, estos nuevos servicios analizan datos de video que de otra manera serían difíciles y tediosos de procesar manualmente. Estos incluyen:

· Análisis de eventos en vivo: Combina las APIs de Watson con las soluciones de transmisión en vivo de IBM Cloud Video a fin de rastrear reacciones en tiempo real de la audiencia en eventos en vivo mediante el análisis de los posts en redes sociales.

· Detección de Escenas de Video: Segmente automáticamente videos en escenas significativas para hacer más eficiente el encontrar y entregar contenido por segmento de audiencia.

· Percepciones de la audiencia: Integra soluciones de IBM Cloud Video con la plataforma IBM Media Insights, una solución cognitiva que utiliza las APIs de Watson para ayudar a identificar las preferencias de la audiencia, incluyendo lo que están viendo y diciendo en redes sociales.

https://youtu.be/U-c0jTwxG-0

https://youtu.be/D1NqItGaqIQ

IBM aplica Watson a IBM Cloud Video para el Análisis de Reacciones de Audiencia en Eventos en vivo
Con el incremento del uso de audiencias más amplias de los servicios de transmisión en vivo de video, IBM ha combinado Watson Speech to Text y APIs de AlchemyLanguage con su tecnología de IBM Cloud Video para un nuevo servicio que monitorea la retroalimentación del consumidor mientras el evento transcurre. La nueva tecnología experimental está diseñada para procesar el lenguaje natural en el video en vivo y analizar simultáneamente los datos generados en redes sociales para proveer análisis ´palabra por palabra´ del sentimiento de la audiencia hacia un evento en vivo.

Esta capacidad, ahora en fase de demonstración con clientes, podría ser usada por empresas para medir y ajustar el contenido ante la reacción de audiencias antes de que el presentador siquiera deje el escenario. En una develación de producto, por ejemplo, el entusiasmo del espectador puede subir o decaer cuando algunas características son mencionadas, proveyendo percepciones valiosas en aspectos del producto que son importantes para consumidores y que deberían recalcarse en el futuro.

IBM Testea Capacidades Cognitivas para Ayudar a Entender y Segmentar video por Escenas
IBM a su vez ha probado el piloto de un nuevo servicio que puede proveer un entendimiento más profundo del contenido en video. Actualmente, existe tecnología en el mercado que puede usarse para segmentar videos basada en marcas visuales simples, como un cambio en el ángulo de la cámara. Sin embargo, los proveedores de contenido continúan buscando maneras efectivas de distinguir cambios más sutiles que requieren entendimiento de conversaciones y contexto.

El nuevo proyecto piloto de IBM Research utiliza capacidades cognitivas experimentales, incluyendo tecnología diseñada para entender semántica y patrones en lenguaje e imágenes, para identificar conceptos de mayor nivel, tales como cuando un show o película cambia de tema. Esto puede ser usado para automáticamente segmentar videos en capítulos significativos, en lugar de potenciales cortes arbitrarios en acción. Por ejemplo, el servicio puede automáticamente crear capítulos de videoclips basados en temas diferentes en una lectura, instrucciones para diversas recetas o escenas de búsquedas de casas para vecindarios individuales. Este nivel de detalle requiere normalmente a una persona que mire y categorice manualmente cada pieza del video.

Un proveedor líder de contenido ya está probando este servicio como una manera potencial de mejorar la categorización de videos, indexación de capítulos específicos y búsquedas de contenido relevante. Esto es un primer paso para proveer una base de servicios de meta-data más rica que pueda usarse para ayudar a crear parejas de contenidos altamente específicos para espectadores por segmento, incrementando impacto y el tiempo usado.

Tecnología cognitiva Watson combinada con Plataforma IBM Cloud de Video para Entregar Contenido más Relevante a Espectadores
IBM también pretende integrar sus tecnologías cognitivas con la plataforma IBM Cloud Video para proveer información de inteligencia más profundas por sentimientos o preferencias de la audiencia. La plataforma IBM Media Insights, una solución de IBM Media and Entretainment, está siendo añadida a los productos ya existentes de Catalog and Suscriber Manager y Logistics Manager para proveer a los clientes detalles de hábitos de consumo- tales como otros shows, o cadenas televisivas vistas, dispositivos usados para ver los videos y otros intereses para audiencias específicas.

El nuevo servicio, planeado para salir a la venta más tarde este año, está diseñado para usar la nueva plataforma Media Insights a fin de analizar comportamientos de vista de videos y transmisiones de video en redes sociales para identificar patrones complejos que pueden usarse en la mejora del emparejamiento de contenido y encontrar nuevos espectadores interesados en el contenido existente. La plataforma Media Insights utiliza varios API’s de Watson, incluyendo Speech to Text, AlchemyLanguage, Tone Analyzer y Personality Insight.

Las noticias de hoy se basan en otros proyectos de IBM para aplicar capacidades cognitivas de video. Previamente a principios de este año, IBM Research utilizo APIs experimentales de Watson para crear un “tráiler de película cognitivo”. El sistema aprendió de anteriores tráilers de horror, lo que posiblemente los hizo efectivos e identifico escenas relevantes en una película antes de lanzarse que hicieran posible crear un tráiler efectivo. IBM también trabajo este año con el US Open para transformar comentarios en texto con mayor precisión al tener a Watson aprendiendo terminología de tenis y nombres de jugadores antes de que comenzara el torneo.

Estos nuevos servicios pueden ser usados tanto por compañías de Media y Entretenimiento enfocados en crear contenidos, así como por organizaciones de todas las industrias que usen video para conectarse con empleados o clientes.

Más información sobre IBM Cloud en este enlace.

Más información sobre IBM Cloud Video en este enlace.

Fotografía (c) IBM

Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022