/ miércoles 9 de marzo de 2022

La TV del futuro será más personalizada

La BBC trabaja con una universidad para crear programas cuyos contenidos sean más adaptables a las necesidades y preferencias de cada televidente

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Policiaca

Operación Enjambre: Juez deja en prisión preventiva a alcaldesa y seis funcionarios detenidos en Edomex

Los funcionarios investigados por el Gobierno Federal se encuentra en prisión preventiva en los penales de Almoloya de Juárez, Otumba, Texcoco, Tenango y Cuautitlán

Policiaca

Ejecutan a tres personas dentro de vecindad del Centro; hay un lesionado

Al arribo de paramédicos dos personas aún presentaban signos vitales, pero uno de ellos falleció apenas a su ingreso a un nosocomio