LA
ACÚSTICA FORENSE
INTRODUCCIÓN.
La
acústica forense es una parte de la criminalística que engloba la aplicación de
técnicas desarrolladas por la ingeniería acústica para el esclarecimiento de
los delitos y la averiguación de la identidad de quienes los cometen. No existe
más límite, en la selección y uso de esas técnicas, que el impuesto por la
casuística pericial. Por tanto, los apartados que se exponen en este trabajo
responden a los requerimientos judiciales por orden de importancia o, al menos,
de frecuencia en las peticiones de informes periciales.
RECONOCIMIENTO
DE LOCUTORES POR LA VOZ.
Las
primeras técnicas aplicadas en el ámbito forense.
La primera tecnología que
recibió un nombre propio dentro del ámbito policial y forense la encontramos en
los Estados Unidos en la década de los sesenta. La denominada técnica del
“voiceprint” estuvo unida a un instrumento de medida, el espectrógrafo, cuya
aparición tuvo lugar en 1941, empleándose en investigaciones de habla y música
relacionadas con sistemas de comunicaciones. Este instrumento fue usado por
Lawrence G. Kersta en los Laboratorios Bell, a principios de la mencionada
década, para lograr identificar a las personas por la voz. El instrumento
generaba un gráfico de la señal de voz teniendo en cuenta la información
frecuencial, temporal y energética que se denominó espectrograma o sonograma.
Kersta comenzó sus investigaciones partiendo de la hipótesis de que la voz de
cada persona es tan única como la huella dactilar, pudiéndose determinar lo que
él llamaba “huella acústica” utilizando el análisis espectrográfico.
El término “voiceprint
identification” fue acuñado por Kersta y, dado su parecido con el término
“fingerprint identification”, se difundió erróneamente la analogía de
significado.
La pretendida
unicidad de la voz surgió al pensar en el mecanismo fisiológico que produce esa
señal acústica, así como en el proceso de aprendizaje del habla. Kersta sostuvo
que la individualidad de la voz se fundamentaba en los anteriores procesos. En
concreto, afirmaba que las cavidades vocales y los articuladores son aquellas
partes del tracto vocal que determinan la individualidad. Las primeras son
resonadores y se caracterizan por sus dimensiones y forma de acoplarse, resultando
despreciable la probabilidad de que dos personas tengan idénticas estas
propiedades. Los segundos (labios, dientes, lengua, paladar blando y músculos
mandibulares) son controlados dinámicamente por cada persona y permiten que se
puedan emitir los sonidos consonánticos y vocálicos. La probabilidad de
encontrar a dos personas con idéntico patrón dinámico en el uso de los
articuladores es extremadamente remota.
Aunque la
identidad de un locutor está fuertemente correlada con las características
fisiológicas y de comportamiento (hábitos lingüísticos, entonación de las
frases, etc.) del locutor: variaciones en los tamaños de las cavidades del
tracto vocal dan lugar a diferencias en las resonancias; variaciones en el
tamaño y elasticidad de las cuerdas vocales se traducen en cambios en el valor
medio de la frecuencia fundamental de los sonidos sonoros; variaciones en el
paladar blando y el tamaño de la cavidad nasal producen diferencias espectrales
en los sonidos nasales; la presencia de variaciones anatómicas atípicas
(disposición y estado de los dientes, estructura del paladar, etc.), pueden dar
lugar a sonidos atípicos o una nasalidad anormal. El problema de la detección
de las características presentes en la señal de voz que individualicen al
hablante no ha sido un problema fácil.
Los
expertos en procesado de señal de habla subrayan que la información inherente
al locutor se encuentra completamente imbricada con el resto de las
informaciones presentes en la señal de voz y, en cierto modo, enmascaradas por
ella. Si analizamos el proceso de la señal de voz captada por nuestro oído o
por un transductor: paso de flujo de aire sobre el tracto vocal del locutor,
radiación de dicho sonido al exterior, propagación acústica hasta el oído o un
transductor, y en este último caso, paso de la señal de voz a través de
sistemas eléctricos y electrónicos con sus respuestas en frecuencia y fase
(amplificadores, filtros, canales telefónicos, conversiones analógico/
digitales y digitales/analógicas, procesos de codificación, etc.), observamos
que toda esa cadena de elementos introducen sus propios efectos, claramente
perjudiciales para la identificación. Sin embargo, aún con todo lo anterior,
los seres humanos somos capaces de identificar a las personas.
Los
ingenieros han dividido los factores que afectan a la variabilidad intra
locutor en dos grandes grupos:
• Variabilidad inherente a la
propia señal de voz: derivada de factores directamente achacables al locutor,
ya sean voluntarios o involuntarios (denominados factores intrínsecos: edad,
estado emocional, estado físico, estar sometido a estrés, velocidad de
articulación o tipo de habla -leída, susurrada, conversacional, etc.-; o bien,
de circunstancias externas al locutor (llamadas factores extrínsecos:
dispositivos de adquisición y transmisión de la señal de voz, ancho de banda,
distorsión de canal, reverberación, ruido aditivo, etc.).
• Variabilidad debida al paso del
tiempo.
A
petición del FBI, un equipo de investigación dirigido por el Dr. Richard H.
Bolt, y entre los que se encontraba Oscar I. Tosi, uno de los padres del
“voiceprint”, llevó a cabo un trabajo consistente en evaluar la técnica del
“voiceprint” desde los aspectos científico, técnico y jurídico. El estudio se
denominó “On the theory and practice of voice identification” y fue publicado
en febrero de 1979.
El
informe sostuvo que la ciencia y la práctica de la identificación de voz se
encontraban, entonces, en un estado claramente imperfecto, al igual que ocurría
en el ámbito jurídico. Destacaba, entre otros, los siguientes puntos oscuros no
resueltos en el ámbito de la ciencia: las características básicas que distingue
una voz de otra, la distribución de esas características dentro de grandes
poblaciones, la susceptibilidad de la voz al control voluntario, como en la
mímica, el disfraz, etc. En cuanto a la práctica, denunciaba la falta de
fundamentos sólidos en los procedimientos de operación, de los métodos de
aprendizaje y de las aseveraciones sobre el grado de exactitud de las conclusiones.
De tal forma que -expresaba -, no era de extrañar que se argumentara en las
sentencias sobre la inexistencia de principios claros que guiaran a los
Tribunales a la hora de evaluar la validez de la metodología del “voiceprint”.
Por tanto, a causa de lo que calificaba como estado relativamente inmaduro de
la ciencia y técnica en este ámbito de la criminalística, la aplicación del
método del “voiceprint” en años anteriores había conducido a confusiones y
controversias.
La aportación de los
filólogos en el reconocimiento de locutores por la voz.
La fonética, sintaxis,
morfología, lexicología, dialectología, sociolingüística o la psicolingüística,
por citar algunas de las materias filológicas más relacionadas con nuestro tema,
aportan conocimientos nada despreciables en el ámbito forense. La determinación
del origen geográfico de un hablante, edad, ámbito social en el que se
desenvuelve, el descubrimiento de rasgos de su personalidad o hábitos de
procedencia patológica o aprendida que lo caractericen de alguna manera, son
informaciones muy útiles. También los filólogos han intentado aplicar sus
conocimientos para resolver el problema de la identificación de la voz.
La fonética articulatoria
y, posteriormente, la fonética acústica, han partido del estudio del mecanismo
de producción del habla para explicar la naturaleza del lenguaje humano. Para
esas ciencias, ha sido también esencial descubrir los átomos del lenguaje
denominados rasgos distintivos. Por tanto, estudian lo que hay de común en
todos los hablantes.
Partiendo del apriorismo
de aceptar la teoría de la unicidad de la voz, muchos filólogos han intentado
aplicar sus conocimientos para detectar semejanzas y desemejanzas entre voces
de diferentes locutores para llegar a realizar inferencias de identidad. Sus
estudios suelen seguir la siguiente pauta:
•
Determinación y medición de los parámetros acústicos más invariables en un
locutor.
•
Utilización de la teoría fonética a la hora de realizar un estudio auditivo de
las voces.
•
Análisis instrumental (espectrográfico) y estudio de los rasgos segmentales y
suprasegmentales.
• Utilización de sus
conocimientos de sintaxis, semántica, morfología, lexicología, dialectología,
sociolingüística o psicolingüística para subrayar características que
contribuyan a individuar al locutor.
La
IAFPA (International Association for Forensic Phonetics and Acoustics) es la
más activa asociación internacional en Europa que engloba a destacados expertos
lingüistas en el campo del reconocimiento de locutores por la voz. Fue
constituida formalmente en York (Inglaterra) en 1991.
Los avances de la
ingeniería en el reconocimiento de locutores por la voz.
Desde
que la ciencia experimental empezó a crear modelos ideales convincentes de la producción
del habla, los ingenieros desarrolladores de sistemas semiautomáticos o
automáticos de reconocimiento de locutores por la voz han tratado de mejorarlos
impulsando la investigación en parametrización relacionada con información
individua-lizadora del locutor, englobando técnicas encaminadas a conseguir
robustez paramétrica, es decir, a la extracción de parámetros característicos
de la señal de voz que sean inmunes a la presencia del ruido contaminante.
Igualmente, han tratado de mejorar el propio proceso de modelado, han avanzado
en la normalización de las verosimilitudes y en el procedimiento estadístico de
evaluación de la evidencia.
Los
sistemas de reconocimiento automático que han conseguido mayor éxito con
parametrización acústica han sido los basados en modelos de mezclas gaussianas
(GMM). Son modelos basados en una suma ponderada (mezcla) de funciones densidad
de probabilidad gaussianas de modo que la distribución de los vectores de
parámetros extraídos a partir de las alocuciones producidas por un determinado
locutor quedan adecuadamente modeladas.
Han existido dos motivos
principales para usar GMMs en el reconocimiento de locutores en el ámbito
forense:
• La idea intuitiva de que
las componentes individuales de una densidad multi-modal son capaces de modelar
las clases acústicas subyacentes en el proceso de identificación; esto es, que
el espacio acústico que caracteriza la voz de un individuo se puede aproximar
mediante un conjunto de clases acústicas (que representan conjuntos amplios de
eventos acústicos) como pueden ser las vocales, las consonantes nasales o
fricativas, etc. Estas clases acústicas denotan dependencia respecto a las
configuraciones del tracto vocal específicas de cada locutor, siendo de gran
utilidad a la hora de caracterizar a un hablante.
• La constatación empírica
de los resultados alcanzados por estos sistemas en las evaluaciones
internacionales llevadas a cabo por el NIST (National Institute of Standards
and Technology), perteneciente al Departamento de Comercio de los Estados
Unidos, y en la evaluación realizada en el año 2003 por TNO-NFI (The Netherland
Forensic Institute) con voz forense.
Estado de la técnica en
reconocimiento automático de locutores con fines forenses.
La multimodalidad
biométrica, es decir, la existencia de numerosos sistemas de identificación
biométricos orientados a la identificación de personas, no sólo cabe concebirla
entre datos relacionados con diferentes órganos de los seres humanos, de los
que cabe obtener información identificativa de un individuo (iris + huella
dactilar + voz + etc.). También es posible emplear la fusión aprovechando toda
la información que la naturaleza de la muestra analizada nos proporciona. En el
caso de la voz, los diferentes niveles de información que se entremezclan en el
habla humana son fuente de tratamiento biométrico separado, pudiendo llegar a
demostrarse la independencia entre esos niveles, y puede culminarse el proceso
creando sistemas multimodales exclusivos de la voz. Se trata de la metodología
de análisis más moderna y fructífera de cuantas hoy se conocen para mejorar las
tasas de rendimiento de los sistemas automáticos de reconocimiento de locutor.
La fusión multimodal vía
SVM (Support Vector Machines) se está empleando con gran éxito en numerosos
campos de la biometría, también en voz. En la actualidad se trabaja con
sistemas de fusión independientes de usuario, dependientes de usuario y
adaptados al usuario. Los mejores resultados se alcanzan con esta última
opción.
Las diferentes propuestas
tecnológicas de los sistemas de reconocimiento automático de locutor que
actualmente compiten en NIST son, resumidamente, las siguientes:
•
Sistemas de reconocimiento fonético de locutores por modelado estadístico del
lenguaje (con n-gramas) en el tiempo.
•
Sistemas basados en GMMs parametrizando el pitch y la energía.
•
Sistemas NERF (Non-Uniform Extraction Region Features): las regiones de
extracción de parámetros son segmentos de la forma de onda limitados por
ciertos eventos; en cada región los parámetros describen pausas (número y
longitud máxima), F0 (máximo, rango y pendiente) y Energía (máxima, mínima,
rango y pendiente).
•
Sistemas idiolectales: se reconoce el uso particular, por cada hablante, de los
elementos del lenguaje.
• Sistemas
de reconocimiento prosódico de locutor por tokenización de pendientes (F0, E).
•
Sistemas de reconocimiento fonético-acústico basados en GMMs o SVMs. Existe una
sustancial potencialidad de mejora de los sistemas automáticos de
reconocimiento combinando los anteriores sistemas. No obstante, siguen siendo
los mejores sistemas individuales los sistemas fonético-acústicos GMM o SVM con
parámetros MFCC.
La
formulación de conclusiones en informes de voz realizados con sistemas
automáticos.
Siempre han existido
intentos de establecer convenciones en torno a los niveles de certeza sobre las
opiniones vertidas en los informes forenses. Si queremos ser científicamente
serios, cualquier convención sobre la forma de expresar conclusiones en los
informes debe estar firmemente enraizada en la lógica formal.
Durante muchos años, la
forma tradicional de expresar las conclusiones en criminalística ha estado
ligada a la formulación de escalas verbales de probabilidad. Sin embargo, la
amplísima crítica llevada a cabo contra ellas en foros científicos en todo el
mundo ha hecho que se tienda paulatinamente a implantar la inferencia bayesiana
incorporando información subjetiva en el problema identificativo que se
analiza.
Debe
tenerse en mente que “la metodología bayesiana no pretende calcular
probabilidades ‘verdaderas’: se trata de un método eficaz para analizar,
criticar y chequear la coherencia de las opiniones de la gente, ayudándoles a
revisar sus opiniones de forma coherente. Nada más, y nada menos.” (Taroni y
otros, 2001).
Existe una interpretación
de la probabilidad consistente en considerarla como una medida de creencia, lo
cual es una propiedad de un individuo concreto. Esta interpretación mantiene
que la probabilidad es subjetiva. Por el contrario, la definición frecuentista
de probabilidad está basada en interpretarla como la propiedad de una
secuencia. Todo aquél que observe esa secuencia estará de acuerdo con su valor.
Se trata de una interpretación objetiva, si bien no está exenta de cierta
idealización porque es imposible en la práctica realizar un número infinito de
pruebas, en idénticas circunstancias y del mismo modo, siendo entre sí
independientes.
Lindley ha aportado un
excelente argumento en defensa de la probabilidad subjetiva. Comenta que
mientras la objetividad es considerada como un marchamo de lo que puede
llamarse ciencia, la subjetividad es algo que el científico debe evitar a toda
costa. Sin embargo, observa, si una hipótesis se cree a priori digna de tener
en cuenta en la ciencia experimental pero suscita controversia, al mismo
tiempo, se realizan experimentos repetidos hasta que exista un acuerdo
generalizado. Al igual que pasa con los científicos, los miembros de un Jurado
pudieran tener diferentes creencias apriorísticas.
Consideremos
el siguiente ejemplo: se tiene una información inicial I y dos personas tienen
diferentes creencias sobre la veracidad de un evento G, es decir, sus
probabilidades P(G/I) no son iguales. Se produce una evidencia E y se calculan
las probabilidades a posteriori de cada uno de ellos P(G/E,I). Se puede
demostrar que la evidencia E acerca los valores de sus probabilidades a
posteriori. A medida que fuera mayor la evidencia E, la cercanía entre los valores
de las probabilidades a posteriori también sería mayor. Lindley señala que es
eso lo que exactamente ocurre en un Tribunal. Los miembros del Jurado llegan a
una convicción común sobre lo que se dilucida gracias a lo que oyen en el
juicio oral. Nada les fuerza a que lleguen a un acuerdo y, sin embargo, la
experiencia demuestra que ese acuerdo común es generalmente alcanzado.
De Finetti, escribió en
1952 lo siguiente: “aceptamos la definición de probabilidad subjetiva como el
grado de creencia que alcanza un individuo respecto a la ocurrencia de un
cierto evento … Vale la pena considerar el significado preciso, técnico, sobre
la diferencia entre lo objetivo y lo subjetivo. De hecho, estimo que muchos
errores de interpretación y muchas discusiones acaloradas derivan de una
interpretación más o menos inconsciente y vaga sobre lo objetivo, en cuanto
sinónimo de ‘fundado, razonable, serio’, mientras que solemos llamar subjetivo
a un juicio ‘no fundado, precipitado, improvisado sacado de una chistera’. Nada
puede estar más lejos de las intenciones de la teoría de la subjetividad: su
finalidad se centra en el estudio y promoción de evaluaciones sobre la
probabilidad con la misma profundidad con que lo hacen quienes defienden
evaluaciones objetivas y, si fuera necesario, hasta con un mayor sentido de
responsabilidad respecto a no hacerse falsas ilusiones de que pudieran
obtenerse probabilidades de naturaleza objetiva. Aquellos a los que no les
agradan o desprecian las probabilidades subjetivas y creen que lo remedian
utilizando probabilidades objetivas, no alcanzarán mejores resultados...”.
Una de las críticas más
comunes a la aproximación bayesiana para evaluar la evidencia (y también para
otras áreas de análisis estadístico) es el uso de probabilidades subjetivas.
Sin embargo, la subjetividad no puede interpretarse como arbitrariedad. Un
punto de vista repetido es que si la probabilidad es una medida de creencia,
entonces tiene que ser arbitraria, porque una persona pensará una cosa y otra persona
otra cosa diferente. Sin embargo, el que el grado de creencia sea personal no
significa que sea arbitrario. La probabilidad puede representar en qué medida
una persona cree en algo como cierto, pero eso está basado en todo lo que esa
persona conoce al respecto. Esa información suele ser distinta de una persona a
otra, de forma que es fácil que tengan grados de creencia distintos sobre lo
mismo. Esa diferencia no es una diferencia arbitraria. La implicación consiste
en que el grado de creencia está condicionado a lo que conoce cada persona. Por
tanto, todas las probabilidades son condicionales y esas condiciones deben ser
explícitamente establecidas. También puede decirse que todas las probabilidades
son personales.
En la actualidad se
intenta expresar la conclusión de un informe de voz realizado con sistemas
automáticos mediante el uso de la relación de verosimilitudes o LR. Además se
incorpora al informe una curva Tippett que refleja el comportamiento del
sistema ante voces con características acústicas similares a las utilizadas
como voces dubitadas e indubitadas. Al mismo tiempo, se avanza en la
determinación del grado de fiabilidad de la valoración de la evidencia hecha
mediante LR gracias al empleo de técnicas de calidad.
AUTENTIFICACIÓN
DE GRABACIONES.
Terminología
básica en autentificación de grabaciones.
La Sociedad Americana de
Acústica cuenta con un Grupo de Trabajo (WG-12 Working Group on Forensic Audio,
1991) que fue publicando estándares que pudieran servir de guía para una buena
práctica técnico-científica relacionada con la elaboración de informes
periciales de acústica forense. Dentro de los objetivos perseguidos por el
citado Grupo de Trabajo se encuentra la autentificación de grabaciones de audio
y se cita expresamente en el prólogo del documento denominado AES27 (1996) que
se siguen los criterios expuestos en un trabajo realizado en 1974 para el
Tribunal de Distrito del Estado de Columbia de los Estados Unidos.
Se detallaron las normas
técnicas de referencia que se tuvieron en cuenta en la elaboración del
documento y se definieron una serie de términos que son de especial relieve
para la correcta intelección de los trabajos desarrollados por los peritos:
grabación segura, grabación autentificada, análisis de autenticidad,
magnetófono original, grabación original y grabación cuestionada, entre otras.
El documento AES43 (2000)
publicado en noviembre de 1999, fue el fruto de una trabajo liderado por A.
Pellicano en el seno del Grupo de Trabajo WG-12. Recogió un procedimiento
técnico para autentificar grabaciones de audio analógicas inspirándose en las
publicaciones de autores expertos en la materia.
Las
definiciones básicas de este último documento completaron las primeramente
expuestas en el AES27, las cuales, por supuesto, asume.
En el
seno del Grupo de Trabajo “Speech and Audio Analysis” de ENFSI se constituyó un
área de interés común en esta materia en la reunión anual de 1999 celebrada en
La Haya (Holanda). La Guardia Civil expuso un documento que trató de resumir
los principales avances tecnológicos y de procedimiento que, hasta esa fecha,
habían tenido lugar en el mundo.
En la
reunión anual del año 2005 celebrada en Wiesbaden (Alemania) se presentó un
dossier conjunto, elaborado por los representantes del NFI (The Netherland
Forensic Institute), BKA (Bundeskriminalamt) y Guardia Civil donde se abordó,
de forma expresa, la problemática inherente a la terminología en los informes
de autentificación de grabaciones de audio.
La
Guardia Civil emplea la siguiente terminología, de uso para cualquier
tecnología de audio:
Grabación
original: cualquier soporte de grabación o parte del mismo que contenga, de
forma permanente, los sucesos acústicos capturados por un sensor y registrados
en tiempo real, justamente en los instantes en que la señal acústica se iban
produciendo.
Grabación
íntegra: cualquier soporte de grabación o parte del mismo que contenga,
permanentemente y de forma continua, los sucesos acústicos capturados por un
sensor y grabador.
Grabación
precisa: cualquier soporte de grabación o parte del mismo que contenga,
permanentemente, los sucesos acústicos capturados por un sensor y grabador,
desviándose ligeramente o dentro de los límites de tolerancia de un estándar
tecnológico.
Grabación
auténtica: grabación que merece ser considerada verosímil a juicio de la
Autoridad Judicial. Se trata de un concepto que estimamos que está fuera del
alcance de un experto forense porque su naturaleza es decisoria y sobre una
cualidad de algo sobre la que sólo la Autoridad Judicial puede pronunciarse.
Solamente puede llegarse a ello tras un proceso de decisión lógica en el que
resulta indispensable, en aras a ser calificado de respetuoso con la lógica
racional, cumplimentar las leyes de la probabilidad. En este sentido, nos
encontramos ante un proceso de decisión semejante al de la identificación de
una persona a partir de un vestigio.
Examen de
autenticidad.
Cuando un
Juez solicita de un perito que examine si una grabación puede ser calificada de
auténtica, lo que en nuestra opinión es importante es preguntarse por los
siguientes elementos:
•
Indicios de originalidad.
•
Precisión.
•
Integridad.
• Ausencia de alteraciones
inexplicables, entendiendo por tales las manipulaciones o los fenómenos cuya
explicación escape al control técnico de los peritos, teniendo en cuenta su
formación y experiencia profesional. Lo primero entrañaría rechazar la
autenticidad de aquellos pasajes afectados por las alteraciones y lo segundo
produciría duda. Las etapas que, de forma general, se siguen en un estudio de
autenticidad en grabaciones de audio en soportes magnéticos, son las
siguientes:
• Examen físico del soporte de la grabación.
• Escucha crítica.
• Análisis de forma de onda.
• Análisis frecuencial.
• Análisis espectrográfico.
• Análisis espacial.
La señal de video analógica precisa, además, de un análisis
específico de la señal relacionada con las imágenes y la de sincronización, en
función de la norma técnica utilizada por el equipamiento que se perite.
La autentificación de grabaciones digitales tiene una
pecualiaridad especial debido a la naturaleza de la señal grabada en los
soportes. La autentificación digital necesita de la incorporación de sistemas
de seguridad informáticos como la firma electrónica, la técnica del
“timestamping”, los algoritmos “hashing” u otros sistemas de análogas
características.
Conclusiones en
autentificación de grabaciones.
Hace muchos años que los expertos forenses están convencidos de
que no es posible conseguir la certeza absoluta a la hora de abordar de forma
objetiva un examen de autentificación de grabaciones.
Si ningún examen pericial de esta naturaleza puede llegar a la
certeza absoluta, resulta muy importante conocer el grado de confianza que
podemos alcanzar sobre una particular creencia. Aquí juega un papel esencial la
aproximación bayesiana, puesto que considera a las probabilidades como medidas
de creencia sobre la ocurrencia de un evento particular (a estas probabilidades
se las denomina probabilidades subjetivas).
La aproximación bayesiana permite combinar probabilidades
objetivas, basadas en datos, con probabilidades subjetivas, para lo que la
formación y experiencia de los expertos resulta relevantes.
Los Jueces también necesitan utilizar probabilidades subjetivas
relacionadas con la credibilidad de los testimonios de testigos oculares.
Por tanto, las conclusiones deberían exponerse siguiendo la pauta
propuesta por la valoración bayesiana de la evidencia. Por ejemplo: “una vez
examinada la evidencia con los análisis establecidos por la instrucción técnica
del Departamento, lo observado es más probable encontrarlo si la hipótesis de
que la grabación es auténtica es cierta que si la hipótesis alternativa y, en
este caso, complementaria, lo fuera”.
LIMPIEZA DE GRABACIONES.
La limpieza de grabaciones forense tiene una perspectiva propia
que la diferencia, en algún sentido, de cualquier trabajo análogo. No interesa
resaltar, ni siquiera respetar, la calidad acústica de la voz. Lo que interesa
es mejorar su inteligibilidad, por tanto, las técnicas de filtrado han de
aplicarse bajo ese prisma. En otras ocasiones el objetivo principal no es la
voz sino el ruido de fondo.
En el contexto de grabaciones en soporte magnético, para una
correcta aplicación de las técnicas se comprueba previamente el estado de los
tornillos de las carcasas, la longitud de la cinta, el estado de las
bobinadoras y el de la cinta en sí misma. Todo ello para asegurarse de que no
habrá problemas en la reproducción de la señal. Si pudiera haberlos, se realiza
un transporte de la cinta a otra carcasa. Para evitar borrados accidentales de
la grabación original se rompen las pestañas que previenen contra dichos borrados
en los formatos de cinta que las posean.
Con ayuda de técnicas de microscopía con luz
polarizada y cristales reveladores, u otras de análoga eficacia, se visualizan
las pistas de la grabación sobre el soporte. Este análisis sirve para elegir la
mejor opción en orden a reproducir la señal grabada. Resulta de gran
importancia fijarse si las pistas pudieran tener un desplazamiento severo
respecto a la cabeza o cabezas que tengan que reproducir su contenido y tener
en cuenta si la grabación es monoaural o estereofónica.
El ajuste de azimuth consiste en ajustar la
cabeza del magnetófono que reproduce al ángulo formado por los dominios
respecto a la línea vertical respecto a los bordes de la cinta, de tal modo que
la respuesta en altas frecuencias sea la máxima posible. Como criterio general,
a menor velocidad y mayor anchura de pista se obtienen mayores pérdidas por
desajuste de azimuth.
Se realiza un análisis de la velocidad de reproducción siguiendo
la evolución de un tono grabado sobre el soporte magnético. Los tonos más
frecuentes son los de red (50 Hz y armónicos), los telefónicos o algunos tonos
procedentes de interferencias eléctricas. Podemos medir así qué porcentaje de
deriva, respecto a la velocidad oficial de reproducción del equipo, es la que
se está produciendo.
Una de las etapas más importantes del análisis es la escucha
crítica, que sirve para especificar el tipo de grabación (microfónica,
telefónica, etc.) y localizar los tramos que requieren mejora de la
intelegibilidad. El contenido de lo grabado se etiqueta para aplicar distintos
filtros en función del ruido que haya que eliminar o reducir.
A continuación, se realiza un análisis en frecuencia antes de
aplicar filtros digitales de limpieza, llevándose a cabo un promediado
exponencial de la FFT en zonas de silencio y en zonas con voz. Gracias a ese
examen podemos determinar: rango de frecuencia del habla; relación señal/ruido;
presencia de tonos discretos; posible presencia de ruido en determinadas
bandas; y efectos de convolución.
Resulta también muy importante controlar dinámicamente la señal de
habla y limitar el rango de frecuencias al canal de transmisión o grabación
utilizando un limitador que impida saturaciones, un filtrado del ancho de banda
del canal, y un compresor/ expansor.
Los distintos tipos de ruido como las
distorsiones no lineales ocasionada por niveles de grabación fuera del rango
tolerable, el uso de sistemas de transmisión o recepción de escasa calidad,
fallos de dispositivos electrónicos, cambios convolucionales producidos por
alteraciones de frecuencia lineales del sistema de grabación, canal de
transmisión, o de entorno acústico como una habitación reverberante, ruido de
sistema como el producido por el equipo reproductor y sistemas de transmisión
(por ejemplo, el zumbido de la red o el lloro y centelleo), ruido de entorno
como el aditivo a la señal de voz antes de que sea captada por un micrófono
(por ejemplo, ruido de televisión, radio, ventilación, tonos, manejo del
micrófono, etc.), se combaten con filtros digitales especialmente adaptados a
los fenómenos descritos.
MEDIDAS
ACÚSTICAS FORENSES.
Desde que el delito medioambiental está tipificado en el Código
Penal español, la contaminación acústica pasa a ser una tarea técnica forense.
No sólo se trata de medir los índices de contaminación o aislamiento acústicos
siguiendo las recomendaciones técnicas internacionales (normas ISO, UNE, IEC) y
las dispuestas en la Directiva 2002-49-CE del Parlamento Europeo, de 25 de
junio de 2002, sobre evaluación y gestión del ruido ambiente, la Ley 37/2003,
de 17 de noviembre, del Ruido, y en las Órdenes de las Consejerías de Medio
Ambiente de las Comunidades Autónomas fundamen-talmente, sino que el análisis
de los resultados permite evaluar en qué medida el ruido afecta a la salud de
las personas. La Autoridad Judicial no está resolviendo, en esos casos, un
expediente abierto por una supuesta infracción administrativa.
Las técnicas de acústica arquitectónica, medioambiental,
industrial o en campo libre encajan perfectamente en la acústica forense.
Técnicas de acústica arquitectónica.
Se realizan mediciones de aislamiento acústico en interiores de
edificios. Se suele utilizar una fuente sonora en el lugar de donde procede el
ruido y se miden los tiempos de reverberación e índices de reducción sonora
aparente. Con ello se pretende averiguar si un sonido procedente de un
habitáculo puede ser percibido en otro contiguo, o incluso, en el caso de la
voz, si pudiera ser la conversación inteligible midiendo el índice RASTI.
Siempre que intervengan seres humanos, como actores principales en el
planteamiento de la pericia, han de ser sometidos a una audiometría.
Técnicas de acústica medioambiental e industrial.
Normalmente se suelen emplear sonómetros integradores que miden
diferentes niveles de presión sonora equivalente y con ponderación A, aunque en
ocasiones se necesitan medir niveles relacionados con ruidos impulsivos. Se
suelen realizar también mapas de ruido cuando existen áreas habitadas afectadas
por ruido aéreo: inmediaciones de aeropuertos o infraestructuras ferroviarias,
principalmente.
Técnicas de acústica en campo libre.
Cuando el ruido es provocado por un disparo o una explosión y la
Autoridad Judicial requiere una pericia sobre la posibilidad de su audición por
un testigo, además de la audiometría se hacen necesarias una serie de pruebas
acústicas que intenten objetivizar, en la medida de lo posible, la posibilidad
real de oír esos sonidos a la distancia y en las circunstancias descritas en su
testimonio.
CONCLUSIONES.
La acústica forense es ya una disciplina de la criminalística que
ha alcanzado un grado de madurez científica suficiente como para considerarla
imprescindible en todo laboratorio especializado. La casuística pericial
obliga, a los integrantes de esos laboratorios, a tener amplios conocimientos
de fonética, tecnología del sonido y del habla en particular, patologías del
habla y procesado de señal.
Donde aún se tiene que experimentar un crecimiento notable es en
la práctica pericial de muchos laboratorios hoy día constituidos. Esa falta de
experiencia se vislumbra en la práctica inexistencia de protocolos
internacionales que armonicen los métodos y procedimientos de trabajo pericial en
los distintos laboratorios. No existe consenso todavía en aspectos, tan
básicos, como en terminología en autentificación de grabaciones. Sin embargo,
no faltan propuestas y foros de discusión, por lo que el futuro es
esperanzador.
Debido al constante y creciente desarrollo tecnológico en acústica
aplicada, los avances en cada una de las áreas como reconocimiento de locutores
por la voz, limpieza de grabaciones, autentificaciones de grabaciones o medidas
acústicas relacionadas con el ruido, por ejemplo, obligan a los peritos a tener
una necesidad imperiosa de actualizar sus conocimientos y a fomentar la
investigación criminalística.
También se ha constatado
la importancia, cada vez mayor, de incorporar técnicas de inferencia estadística
en la formulación de conclusiones periciales, especialmente los relacionados
con identificación de personas por la voz y en autenficación de grabaciones.
Por
último, dado que la criminalística tiene una perspectiva propia a la hora de
emplear la tecnología y los conocimientos científicos, y su incidencia social
es cada vez más relevante y frecuente, se vislumbra un futuro en el que será
necesario dar vida a proyectos como la creación de centros específicos de
formación criminalística o de titulaciones especiales.