Saltar la navegación

Los que no son voz

Mujer programando

En una siguiente etapa está bueno analizar también qué sucede con otro tipo de sonidos, que no corresponden a voces humanas (y que por lo tanto la computadora no los vio en la etapa de entrenamiento).

Ejemplos de ello podrían ser un silbato, algún instrumento como una flauta, un piano o una guitarra, y cualquier otro sonido que se nos ocurra y tenga sentido intentar clasificarlo en grave o agudo.

En cada caso es interesante tratar de pensar por qué la máquina puede o no resolver la clasificación de forma correcta.


Es interesante para cerrar la actividad, reflexionar con los estudiantes cómo es el proceso de “aprendizaje” de una computadora.

¿Qué es lo que le permite efectivamente reconocer las categorías a partir de los ejemplos que le mostramos?

También es importante notar que nunca será capaz de reconocer cosas que nunca le mostramos.

Por último, tener en cuenta que si bien de alguna manera la máquina “aprende” sola, a través de los ejemplos que le damos, hay una etapa previa donde aún seguimos siendo los humanos quienes la programamos.

Esta etapa corresponde justamente a la definición del modelo, es decir las clases que especificamos, en este caso las categorías Alto y Bajo.

Luego, la otra parte donde influimos en lo que aprende es justamente generando y seleccionando las muestras de audio, o sea los ejemplos de cada clase que se usan para preparar el modelo.