Joaquín Stevens C.
Imagina que estás parado en la esquina de una calle en una ciudad. Cierra los ojos: ¿qué oyes? quizás algunos autos y buses de locomoción colectiva circulando cerca tuyo, pasos de personas por la vereda, conversaciones, crujidos, golpes de bolsas, cajas de compras y el alboroto de las aglomeraciones. El sentido de audición te dice lo que sucede a tu alrededor, sin necesidad de abrir los ojos.
Para la mayoría de las personas, esta habilidad de escuchar eventos y escenas cotidianas es tan natural que se da por sentado. Sin embargo, esta es una tarea muy desafiante para los computadores, el reciente progreso en el aprendizaje automático y el procesamiento de señales está permitiendo el desarrollo de tecnologías para el análisis automático de escenas y eventos sonoros por medio de ellos.
El sonido contiene gran cantidad de información sobre nuestro entorno, desde eventos físicos individuales hasta escenas sonoras en su conjunto. En los últimos años se han propuesto varios métodos novedosos para analizar esta información automáticamente y han surgido varias aplicaciones nuevas. Una de estas iniciativas es el proyecto SONYC – Sounds of New York City. El proyecto involucra monitoreo de ruido ambiental a gran escala, aprovecha lo último en tecnología de aprendizaje automático, análisis de big data y reportes de ciencia ciudadana para monitorear, analizar y mitigar de manera más efectiva la contaminación acústica urbana. Más información aquí https://wp.nyu.edu/sonyc/
buy windows 10 home