Ciencias Forenses MX

Ciencias Forenses MX

viernes, 28 de febrero de 2014

Indice de Maldad

El Dr. Michael Stone 
 
investigo cientos de métodos empleados por los homicidas, asesinos seriales y sociopatas, así como sus motivaciones para cometer dichos actos delictivos. 

En base a sus estudios desarrollo una escala conocida como “el índice de maldad” que va desde el nivel 1 hasta el 22, para catalogar a quienes asesinan y sus motivaciones para hacerlo. 

Este índice de maldad fue presentado al público en una serie de documentales por Discovery Channel, en el que por medio de reconstrucciones, entrevistas a neurólogos, psicólogos y psiquiatras forenses se examina el perfil psicológico de la mente de los asesinos más notables de la historia. 

También se observa que el cerebro femenino y el masculino es diferente físicamente, factor importante por el cual el 93% de los asesinos seriales son hombres, mientras que solo un 7% son mujeres, mismas que generalmente cometen crímenes de forma impulsiva y contra personas cercanas a su círculo familiar. 

A continuación el índice de maldad que desarrollo el Dr. Stone: 


1

Aquellos que matan en defensa propia y no muestran tendencias psicóticas. 


2
Amantes celosos que, pensando de forma egocéntrica o inmadura cometen el crimen. No son psicóticos. 

3
Dispuestos a ser compañeros de asesinos, personalidad aberrante, probablemente impulsivos con rasgos antisociales. 

4
Mata en defensa propia, pero ha realizado algo para provocar a la victima para que lo ataque. 

5
Persona traumatizada y desesperada que asesina a familiares o a otras personas que abusan de otros. 
6
Asesinos impetuosos pero que no presentan rasgos psicóticos. 

7
Altamente narcisista con cierta tendencia psicótica que asesina a gente cercana e el ( los celos son un motivo común en este caso). 

8
Personas que no presentan psicopatías pero que asesinan cuando no pueden controlar su rabia ante alguna situación. 

9
Amantes celosos con tendencia psicóticas. 

10
Asesinan a personas que “estorban” para alguna acción, por ejemplo, testigos (egocéntricos pero no psicóticos). 

11
Asesinos psicóticos que asesinan a personas que “estorban” por ejemplo, una madre que asesina a sus hijos para comenzar una relación amorosa o salir de viaje. 

12
Personas hambrientas de poder que asesinan cuando son “acorralados”. 

13
Asesinos con personalidad llena de rabia que asesinan cuando se ven presionados. 

14
Personas centradas, rudas y con fuertes rasgos psicopáticos. 

15
Psicópatas a sangre fría que cometen varios homicidios. 

16
Psicópatas que comenten múltiples actos viciosos. 

17
Asesinos seriales con perversiones sexuales marcadas y que torturan en el proceso (la causa principal es cuando asesinan después de cometer una violación para ocultar la evidencia) la tortura no es un factor de gran peso para ellos. 

18
Asesinos que torturan, pero el asesinato es su principal fin. 

19
Psicópatas que son motivados por el terrorismo, subyugación, intimidación y violación. 

20 Asesinos que torturan, la tortura es su principal motivo y tienen personalidad psicótica. 

21
Psicópatas motivados principalmente por torturar en extremo, pero que no cometen asesinatos. 

22
Asesinos psicópatas y torturadores, la tortura es su principal motivo. Generalmente son los mas crueles. 

jueves, 27 de febrero de 2014

Acústica Forense


LA ACÚSTICA FORENSE

INTRODUCCIÓN.
La acústica forense es una parte de la criminalística que engloba la aplicación de técnicas desarrolladas por la ingeniería acústica para el esclarecimiento de los delitos y la averiguación de la identidad de quienes los cometen. No existe más límite, en la selección y uso de esas técnicas, que el impuesto por la casuística pericial. Por tanto, los apartados que se exponen en este trabajo responden a los requerimientos judiciales por orden de importancia o, al menos, de frecuencia en las peticiones de informes periciales.
RECONOCIMIENTO DE LOCUTORES POR LA VOZ.

Las primeras técnicas aplicadas en el ámbito forense.
La primera tecnología que recibió un nombre propio dentro del ámbito policial y forense la encontramos en los Estados Unidos en la década de los sesenta. La denominada técnica del “voiceprint” estuvo unida a un instrumento de medida, el espectrógrafo, cuya aparición tuvo lugar en 1941, empleándose en investigaciones de habla y música relacionadas con sistemas de comunicaciones. Este instrumento fue usado por Lawrence G. Kersta en los Laboratorios Bell, a principios de la mencionada década, para lograr identificar a las personas por la voz. El instrumento generaba un gráfico de la señal de voz teniendo en cuenta la información frecuencial, temporal y energética que se denominó espectrograma o sonograma. Kersta comenzó sus investigaciones partiendo de la hipótesis de que la voz de cada persona es tan única como la huella dactilar, pudiéndose determinar lo que él llamaba “huella acústica” utilizando el análisis espectrográfico.
El término “voiceprint identification” fue acuñado por Kersta y, dado su parecido con el término “fingerprint identification”, se difundió erróneamente la analogía de significado.
La pretendida unicidad de la voz surgió al pensar en el mecanismo fisiológico que produce esa señal acústica, así como en el proceso de aprendizaje del habla. Kersta sostuvo que la individualidad de la voz se fundamentaba en los anteriores procesos. En concreto, afirmaba que las cavidades vocales y los articuladores son aquellas partes del tracto vocal que determinan la individualidad. Las primeras son resonadores y se caracterizan por sus dimensiones y forma de acoplarse, resultando despreciable la probabilidad de que dos personas tengan idénticas estas propiedades. Los segundos (labios, dientes, lengua, paladar blando y músculos mandibulares) son controlados dinámicamente por cada persona y permiten que se puedan emitir los sonidos consonánticos y vocálicos. La probabilidad de encontrar a dos personas con idéntico patrón dinámico en el uso de los articuladores es extremadamente remota.
Aunque la identidad de un locutor está fuertemente correlada con las características fisiológicas y de comportamiento (hábitos lingüísticos, entonación de las frases, etc.) del locutor: variaciones en los tamaños de las cavidades del tracto vocal dan lugar a diferencias en las resonancias; variaciones en el tamaño y elasticidad de las cuerdas vocales se traducen en cambios en el valor medio de la frecuencia fundamental de los sonidos sonoros; variaciones en el paladar blando y el tamaño de la cavidad nasal producen diferencias espectrales en los sonidos nasales; la presencia de variaciones anatómicas atípicas (disposición y estado de los dientes, estructura del paladar, etc.), pueden dar lugar a sonidos atípicos o una nasalidad anormal. El problema de la detección de las características presentes en la señal de voz que individualicen al hablante no ha sido un problema fácil.
Los expertos en procesado de señal de habla subrayan que la información inherente al locutor se encuentra completamente imbricada con el resto de las informaciones presentes en la señal de voz y, en cierto modo, enmascaradas por ella. Si analizamos el proceso de la señal de voz captada por nuestro oído o por un transductor: paso de flujo de aire sobre el tracto vocal del locutor, radiación de dicho sonido al exterior, propagación acústica hasta el oído o un transductor, y en este último caso, paso de la señal de voz a través de sistemas eléctricos y electrónicos con sus respuestas en frecuencia y fase (amplificadores, filtros, canales telefónicos, conversiones analógico/ digitales y digitales/analógicas, procesos de codificación, etc.), observamos que toda esa cadena de elementos introducen sus propios efectos, claramente perjudiciales para la identificación. Sin embargo, aún con todo lo anterior, los seres humanos somos capaces de identificar a las personas.
Los ingenieros han dividido los factores que afectan a la variabilidad intra locutor en dos grandes grupos:
• Variabilidad inherente a la propia señal de voz: derivada de factores directamente achacables al locutor, ya sean voluntarios o involuntarios (denominados factores intrínsecos: edad, estado emocional, estado físico, estar sometido a estrés, velocidad de articulación o tipo de habla -leída, susurrada, conversacional, etc.-; o bien, de circunstancias externas al locutor (llamadas factores extrínsecos: dispositivos de adquisición y transmisión de la señal de voz, ancho de banda, distorsión de canal, reverberación, ruido aditivo, etc.).
• Variabilidad debida al paso del tiempo.
A petición del FBI, un equipo de investigación dirigido por el Dr. Richard H. Bolt, y entre los que se encontraba Oscar I. Tosi, uno de los padres del “voiceprint”, llevó a cabo un trabajo consistente en evaluar la técnica del “voiceprint” desde los aspectos científico, técnico y jurídico. El estudio se denominó “On the theory and practice of voice identification” y fue publicado en febrero de 1979.
El informe sostuvo que la ciencia y la práctica de la identificación de voz se encontraban, entonces, en un estado claramente imperfecto, al igual que ocurría en el ámbito jurídico. Destacaba, entre otros, los siguientes puntos oscuros no resueltos en el ámbito de la ciencia: las características básicas que distingue una voz de otra, la distribución de esas características dentro de grandes poblaciones, la susceptibilidad de la voz al control voluntario, como en la mímica, el disfraz, etc. En cuanto a la práctica, denunciaba la falta de fundamentos sólidos en los procedimientos de operación, de los métodos de aprendizaje y de las aseveraciones sobre el grado de exactitud de las conclusiones. De tal forma que -expresaba -, no era de extrañar que se argumentara en las sentencias sobre la inexistencia de principios claros que guiaran a los Tribunales a la hora de evaluar la validez de la metodología del “voiceprint”. Por tanto, a causa de lo que calificaba como estado relativamente inmaduro de la ciencia y técnica en este ámbito de la criminalística, la aplicación del método del “voiceprint” en años anteriores había conducido a confusiones y controversias.

La aportación de los filólogos en el reconocimiento de locutores por la voz.
La fonética, sintaxis, morfología, lexicología, dialectología, sociolingüística o la psicolingüística, por citar algunas de las materias filológicas más relacionadas con nuestro tema, aportan conocimientos nada despreciables en el ámbito forense. La determinación del origen geográfico de un hablante, edad, ámbito social en el que se desenvuelve, el descubrimiento de rasgos de su personalidad o hábitos de procedencia patológica o aprendida que lo caractericen de alguna manera, son informaciones muy útiles. También los filólogos han intentado aplicar sus conocimientos para resolver el problema de la identificación de la voz.
La fonética articulatoria y, posteriormente, la fonética acústica, han partido del estudio del mecanismo de producción del habla para explicar la naturaleza del lenguaje humano. Para esas ciencias, ha sido también esencial descubrir los átomos del lenguaje denominados rasgos distintivos. Por tanto, estudian lo que hay de común en todos los hablantes.
Partiendo del apriorismo de aceptar la teoría de la unicidad de la voz, muchos filólogos han intentado aplicar sus conocimientos para detectar semejanzas y desemejanzas entre voces de diferentes locutores para llegar a realizar inferencias de identidad. Sus estudios suelen seguir la siguiente pauta:
• Determinación y medición de los parámetros acústicos más invariables en un locutor.
• Utilización de la teoría fonética a la hora de realizar un estudio auditivo de las voces.
• Análisis instrumental (espectrográfico) y estudio de los rasgos segmentales y suprasegmentales.
• Utilización de sus conocimientos de sintaxis, semántica, morfología, lexicología, dialectología, sociolingüística o psicolingüística para subrayar características que contribuyan a individuar al locutor.
La IAFPA (International Association for Forensic Phonetics and Acoustics) es la más activa asociación internacional en Europa que engloba a destacados expertos lingüistas en el campo del reconocimiento de locutores por la voz. Fue constituida formalmente en York (Inglaterra) en 1991.

Los avances de la ingeniería en el reconocimiento de locutores por la voz.
Desde que la ciencia experimental empezó a crear modelos ideales convincentes de la producción del habla, los ingenieros desarrolladores de sistemas semiautomáticos o automáticos de reconocimiento de locutores por la voz han tratado de mejorarlos impulsando la investigación en parametrización relacionada con información individua-lizadora del locutor, englobando técnicas encaminadas a conseguir robustez paramétrica, es decir, a la extracción de parámetros característicos de la señal de voz que sean inmunes a la presencia del ruido contaminante. Igualmente, han tratado de mejorar el propio proceso de modelado, han avanzado en la normalización de las verosimilitudes y en el procedimiento estadístico de evaluación de la evidencia.
Los sistemas de reconocimiento automático que han conseguido mayor éxito con parametrización acústica han sido los basados en modelos de mezclas gaussianas (GMM). Son modelos basados en una suma ponderada (mezcla) de funciones densidad de probabilidad gaussianas de modo que la distribución de los vectores de parámetros extraídos a partir de las alocuciones producidas por un determinado locutor quedan adecuadamente modeladas.
Han existido dos motivos principales para usar GMMs en el reconocimiento de locutores en el ámbito forense:
• La idea intuitiva de que las componentes individuales de una densidad multi-modal son capaces de modelar las clases acústicas subyacentes en el proceso de identificación; esto es, que el espacio acústico que caracteriza la voz de un individuo se puede aproximar mediante un conjunto de clases acústicas (que representan conjuntos amplios de eventos acústicos) como pueden ser las vocales, las consonantes nasales o fricativas, etc. Estas clases acústicas denotan dependencia respecto a las configuraciones del tracto vocal específicas de cada locutor, siendo de gran utilidad a la hora de caracterizar a un hablante.
• La constatación empírica de los resultados alcanzados por estos sistemas en las evaluaciones internacionales llevadas a cabo por el NIST (National Institute of Standards and Technology), perteneciente al Departamento de Comercio de los Estados Unidos, y en la evaluación realizada en el año 2003 por TNO-NFI (The Netherland Forensic Institute) con voz forense.


Estado de la técnica en reconocimiento automático de locutores con fines forenses.
La multimodalidad biométrica, es decir, la existencia de numerosos sistemas de identificación biométricos orientados a la identificación de personas, no sólo cabe concebirla entre datos relacionados con diferentes órganos de los seres humanos, de los que cabe obtener información identificativa de un individuo (iris + huella dactilar + voz + etc.). También es posible emplear la fusión aprovechando toda la información que la naturaleza de la muestra analizada nos proporciona. En el caso de la voz, los diferentes niveles de información que se entremezclan en el habla humana son fuente de tratamiento biométrico separado, pudiendo llegar a demostrarse la independencia entre esos niveles, y puede culminarse el proceso creando sistemas multimodales exclusivos de la voz. Se trata de la metodología de análisis más moderna y fructífera de cuantas hoy se conocen para mejorar las tasas de rendimiento de los sistemas automáticos de reconocimiento de locutor.
La fusión multimodal vía SVM (Support Vector Machines) se está empleando con gran éxito en numerosos campos de la biometría, también en voz. En la actualidad se trabaja con sistemas de fusión independientes de usuario, dependientes de usuario y adaptados al usuario. Los mejores resultados se alcanzan con esta última opción.
Las diferentes propuestas tecnológicas de los sistemas de reconocimiento automático de locutor que actualmente compiten en NIST son, resumidamente, las siguientes:
• Sistemas de reconocimiento fonético de locutores por modelado estadístico del lenguaje (con n-gramas) en el tiempo.
• Sistemas basados en GMMs parametrizando el pitch y la energía.
• Sistemas NERF (Non-Uniform Extraction Region Features): las regiones de extracción de parámetros son segmentos de la forma de onda limitados por ciertos eventos; en cada región los parámetros describen pausas (número y longitud máxima), F0 (máximo, rango y pendiente) y Energía (máxima, mínima, rango y pendiente).
• Sistemas idiolectales: se reconoce el uso particular, por cada hablante, de los elementos del lenguaje.

• Sistemas de reconocimiento prosódico de locutor por tokenización de pendientes (F0, E).
• Sistemas de reconocimiento fonético-acústico basados en GMMs o SVMs. Existe una sustancial potencialidad de mejora de los sistemas automáticos de reconocimiento combinando los anteriores sistemas. No obstante, siguen siendo los mejores sistemas individuales los sistemas fonético-acústicos GMM o SVM con parámetros MFCC.

La formulación de conclusiones en informes de voz realizados con sistemas automáticos.
Siempre han existido intentos de establecer convenciones en torno a los niveles de certeza sobre las opiniones vertidas en los informes forenses. Si queremos ser científicamente serios, cualquier convención sobre la forma de expresar conclusiones en los informes debe estar firmemente enraizada en la lógica formal.
Durante muchos años, la forma tradicional de expresar las conclusiones en criminalística ha estado ligada a la formulación de escalas verbales de probabilidad. Sin embargo, la amplísima crítica llevada a cabo contra ellas en foros científicos en todo el mundo ha hecho que se tienda paulatinamente a implantar la inferencia bayesiana incorporando información subjetiva en el problema identificativo que se analiza.
Debe tenerse en mente que “la metodología bayesiana no pretende calcular probabilidades ‘verdaderas’: se trata de un método eficaz para analizar, criticar y chequear la coherencia de las opiniones de la gente, ayudándoles a revisar sus opiniones de forma coherente. Nada más, y nada menos.” (Taroni y otros, 2001).
Existe una interpretación de la probabilidad consistente en considerarla como una medida de creencia, lo cual es una propiedad de un individuo concreto. Esta interpretación mantiene que la probabilidad es subjetiva. Por el contrario, la definición frecuentista de probabilidad está basada en interpretarla como la propiedad de una secuencia. Todo aquél que observe esa secuencia estará de acuerdo con su valor. Se trata de una interpretación objetiva, si bien no está exenta de cierta idealización porque es imposible en la práctica realizar un número infinito de pruebas, en idénticas circunstancias y del mismo modo, siendo entre sí independientes.
Lindley ha aportado un excelente argumento en defensa de la probabilidad subjetiva. Comenta que mientras la objetividad es considerada como un marchamo de lo que puede llamarse ciencia, la subjetividad es algo que el científico debe evitar a toda costa. Sin embargo, observa, si una hipótesis se cree a priori digna de tener en cuenta en la ciencia experimental pero suscita controversia, al mismo tiempo, se realizan experimentos repetidos hasta que exista un acuerdo generalizado. Al igual que pasa con los científicos, los miembros de un Jurado pudieran tener diferentes creencias apriorísticas.
Consideremos el siguiente ejemplo: se tiene una información inicial I y dos personas tienen diferentes creencias sobre la veracidad de un evento G, es decir, sus probabilidades P(G/I) no son iguales. Se produce una evidencia E y se calculan las probabilidades a posteriori de cada uno de ellos P(G/E,I). Se puede demostrar que la evidencia E acerca los valores de sus probabilidades a posteriori. A medida que fuera mayor la evidencia E, la cercanía entre los valores de las probabilidades a posteriori también sería mayor. Lindley señala que es eso lo que exactamente ocurre en un Tribunal. Los miembros del Jurado llegan a una convicción común sobre lo que se dilucida gracias a lo que oyen en el juicio oral. Nada les fuerza a que lleguen a un acuerdo y, sin embargo, la experiencia demuestra que ese acuerdo común es generalmente alcanzado.
De Finetti, escribió en 1952 lo siguiente: “aceptamos la definición de probabilidad subjetiva como el grado de creencia que alcanza un individuo respecto a la ocurrencia de un cierto evento … Vale la pena considerar el significado preciso, técnico, sobre la diferencia entre lo objetivo y lo subjetivo. De hecho, estimo que muchos errores de interpretación y muchas discusiones acaloradas derivan de una interpretación más o menos inconsciente y vaga sobre lo objetivo, en cuanto sinónimo de ‘fundado, razonable, serio’, mientras que solemos llamar subjetivo a un juicio ‘no fundado, precipitado, improvisado sacado de una chistera’. Nada puede estar más lejos de las intenciones de la teoría de la subjetividad: su finalidad se centra en el estudio y promoción de evaluaciones sobre la probabilidad con la misma profundidad con que lo hacen quienes defienden evaluaciones objetivas y, si fuera necesario, hasta con un mayor sentido de responsabilidad respecto a no hacerse falsas ilusiones de que pudieran obtenerse probabilidades de naturaleza objetiva. Aquellos a los que no les agradan o desprecian las probabilidades subjetivas y creen que lo remedian utilizando probabilidades objetivas, no alcanzarán mejores resultados...”.
Una de las críticas más comunes a la aproximación bayesiana para evaluar la evidencia (y también para otras áreas de análisis estadístico) es el uso de probabilidades subjetivas. Sin embargo, la subjetividad no puede interpretarse como arbitrariedad. Un punto de vista repetido es que si la probabilidad es una medida de creencia, entonces tiene que ser arbitraria, porque una persona pensará una cosa y otra persona otra cosa diferente. Sin embargo, el que el grado de creencia sea personal no significa que sea arbitrario. La probabilidad puede representar en qué medida una persona cree en algo como cierto, pero eso está basado en todo lo que esa persona conoce al respecto. Esa información suele ser distinta de una persona a otra, de forma que es fácil que tengan grados de creencia distintos sobre lo mismo. Esa diferencia no es una diferencia arbitraria. La implicación consiste en que el grado de creencia está condicionado a lo que conoce cada persona. Por tanto, todas las probabilidades son condicionales y esas condiciones deben ser explícitamente establecidas. También puede decirse que todas las probabilidades son personales.
En la actualidad se intenta expresar la conclusión de un informe de voz realizado con sistemas automáticos mediante el uso de la relación de verosimilitudes o LR. Además se incorpora al informe una curva Tippett que refleja el comportamiento del sistema ante voces con características acústicas similares a las utilizadas como voces dubitadas e indubitadas. Al mismo tiempo, se avanza en la determinación del grado de fiabilidad de la valoración de la evidencia hecha mediante LR gracias al empleo de técnicas de calidad.
AUTENTIFICACIÓN DE GRABACIONES.

Terminología básica en autentificación de grabaciones.
La Sociedad Americana de Acústica cuenta con un Grupo de Trabajo (WG-12 Working Group on Forensic Audio, 1991) que fue publicando estándares que pudieran servir de guía para una buena práctica técnico-científica relacionada con la elaboración de informes periciales de acústica forense. Dentro de los objetivos perseguidos por el citado Grupo de Trabajo se encuentra la autentificación de grabaciones de audio y se cita expresamente en el prólogo del documento denominado AES27 (1996) que se siguen los criterios expuestos en un trabajo realizado en 1974 para el Tribunal de Distrito del Estado de Columbia de los Estados Unidos.
Se detallaron las normas técnicas de referencia que se tuvieron en cuenta en la elaboración del documento y se definieron una serie de términos que son de especial relieve para la correcta intelección de los trabajos desarrollados por los peritos: grabación segura, grabación autentificada, análisis de autenticidad, magnetófono original, grabación original y grabación cuestionada, entre otras.
El documento AES43 (2000) publicado en noviembre de 1999, fue el fruto de una trabajo liderado por A. Pellicano en el seno del Grupo de Trabajo WG-12. Recogió un procedimiento técnico para autentificar grabaciones de audio analógicas inspirándose en las publicaciones de autores expertos en la materia.
Las definiciones básicas de este último documento completaron las primeramente expuestas en el AES27, las cuales, por supuesto, asume.
En el seno del Grupo de Trabajo “Speech and Audio Analysis” de ENFSI se constituyó un área de interés común en esta materia en la reunión anual de 1999 celebrada en La Haya (Holanda). La Guardia Civil expuso un documento que trató de resumir los principales avances tecnológicos y de procedimiento que, hasta esa fecha, habían tenido lugar en el mundo.
En la reunión anual del año 2005 celebrada en Wiesbaden (Alemania) se presentó un dossier conjunto, elaborado por los representantes del NFI (The Netherland Forensic Institute), BKA (Bundeskriminalamt) y Guardia Civil donde se abordó, de forma expresa, la problemática inherente a la terminología en los informes de autentificación de grabaciones de audio.
La Guardia Civil emplea la siguiente terminología, de uso para cualquier tecnología de audio:
Grabación original: cualquier soporte de grabación o parte del mismo que contenga, de forma permanente, los sucesos acústicos capturados por un sensor y registrados en tiempo real, justamente en los instantes en que la señal acústica se iban produciendo.
Grabación íntegra: cualquier soporte de grabación o parte del mismo que contenga, permanentemente y de forma continua, los sucesos acústicos capturados por un sensor y grabador.
Grabación precisa: cualquier soporte de grabación o parte del mismo que contenga, permanentemente, los sucesos acústicos capturados por un sensor y grabador, desviándose ligeramente o dentro de los límites de tolerancia de un estándar tecnológico.
Grabación auténtica: grabación que merece ser considerada verosímil a juicio de la Autoridad Judicial. Se trata de un concepto que estimamos que está fuera del alcance de un experto forense porque su naturaleza es decisoria y sobre una cualidad de algo sobre la que sólo la Autoridad Judicial puede pronunciarse. Solamente puede llegarse a ello tras un proceso de decisión lógica en el que resulta indispensable, en aras a ser calificado de respetuoso con la lógica racional, cumplimentar las leyes de la probabilidad. En este sentido, nos encontramos ante un proceso de decisión semejante al de la identificación de una persona a partir de un vestigio.
Examen de autenticidad.
Cuando un Juez solicita de un perito que examine si una grabación puede ser calificada de auténtica, lo que en nuestra opinión es importante es preguntarse por los siguientes elementos:
• Indicios de originalidad.
• Precisión.
• Integridad.
• Ausencia de alteraciones inexplicables, entendiendo por tales las manipulaciones o los fenómenos cuya explicación escape al control técnico de los peritos, teniendo en cuenta su formación y experiencia profesional. Lo primero entrañaría rechazar la autenticidad de aquellos pasajes afectados por las alteraciones y lo segundo produciría duda. Las etapas que, de forma general, se siguen en un estudio de autenticidad en grabaciones de audio en soportes magnéticos, son las siguientes:
• Examen físico del soporte de la grabación.
• Escucha crítica.
• Análisis de forma de onda.
• Análisis frecuencial.
• Análisis espectrográfico.
• Análisis espacial.
La señal de video analógica precisa, además, de un análisis específico de la señal relacionada con las imágenes y la de sincronización, en función de la norma técnica utilizada por el equipamiento que se perite.
La autentificación de grabaciones digitales tiene una pecualiaridad especial debido a la naturaleza de la señal grabada en los soportes. La autentificación digital necesita de la incorporación de sistemas de seguridad informáticos como la firma electrónica, la técnica del “timestamping”, los algoritmos “hashing” u otros sistemas de análogas características.

Conclusiones en autentificación de grabaciones.
Hace muchos años que los expertos forenses están convencidos de que no es posible conseguir la certeza absoluta a la hora de abordar de forma objetiva un examen de autentificación de grabaciones.
Si ningún examen pericial de esta naturaleza puede llegar a la certeza absoluta, resulta muy importante conocer el grado de confianza que podemos alcanzar sobre una particular creencia. Aquí juega un papel esencial la aproximación bayesiana, puesto que considera a las probabilidades como medidas de creencia sobre la ocurrencia de un evento particular (a estas probabilidades se las denomina probabilidades subjetivas).
La aproximación bayesiana permite combinar probabilidades objetivas, basadas en datos, con probabilidades subjetivas, para lo que la formación y experiencia de los expertos resulta relevantes.
Los Jueces también necesitan utilizar probabilidades subjetivas relacionadas con la credibilidad de los testimonios de testigos oculares.
Por tanto, las conclusiones deberían exponerse siguiendo la pauta propuesta por la valoración bayesiana de la evidencia. Por ejemplo: “una vez examinada la evidencia con los análisis establecidos por la instrucción técnica del Departamento, lo observado es más probable encontrarlo si la hipótesis de que la grabación es auténtica es cierta que si la hipótesis alternativa y, en este caso, complementaria, lo fuera”.

LIMPIEZA DE GRABACIONES.

La limpieza de grabaciones forense tiene una perspectiva propia que la diferencia, en algún sentido, de cualquier trabajo análogo. No interesa resaltar, ni siquiera respetar, la calidad acústica de la voz. Lo que interesa es mejorar su inteligibilidad, por tanto, las técnicas de filtrado han de aplicarse bajo ese prisma. En otras ocasiones el objetivo principal no es la voz sino el ruido de fondo.
En el contexto de grabaciones en soporte magnético, para una correcta aplicación de las técnicas se comprueba previamente el estado de los tornillos de las carcasas, la longitud de la cinta, el estado de las bobinadoras y el de la cinta en sí misma. Todo ello para asegurarse de que no habrá problemas en la reproducción de la señal. Si pudiera haberlos, se realiza un transporte de la cinta a otra carcasa. Para evitar borrados accidentales de la grabación original se rompen las pestañas que previenen contra dichos borrados en los formatos de cinta que las posean.
Con ayuda de técnicas de microscopía con luz polarizada y cristales reveladores, u otras de análoga eficacia, se visualizan las pistas de la grabación sobre el soporte. Este análisis sirve para elegir la mejor opción en orden a reproducir la señal grabada. Resulta de gran importancia fijarse si las pistas pudieran tener un desplazamiento severo respecto a la cabeza o cabezas que tengan que reproducir su contenido y tener en cuenta si la grabación es monoaural o estereofónica.
El ajuste de azimuth consiste en ajustar la cabeza del magnetófono que reproduce al ángulo formado por los dominios respecto a la línea vertical respecto a los bordes de la cinta, de tal modo que la respuesta en altas frecuencias sea la máxima posible. Como criterio general, a menor velocidad y mayor anchura de pista se obtienen mayores pérdidas por desajuste de azimuth.
Se realiza un análisis de la velocidad de reproducción siguiendo la evolución de un tono grabado sobre el soporte magnético. Los tonos más frecuentes son los de red (50 Hz y armónicos), los telefónicos o algunos tonos procedentes de interferencias eléctricas. Podemos medir así qué porcentaje de deriva, respecto a la velocidad oficial de reproducción del equipo, es la que se está produciendo.
Una de las etapas más importantes del análisis es la escucha crítica, que sirve para especificar el tipo de grabación (microfónica, telefónica, etc.) y localizar los tramos que requieren mejora de la intelegibilidad. El contenido de lo grabado se etiqueta para aplicar distintos filtros en función del ruido que haya que eliminar o reducir.
A continuación, se realiza un análisis en frecuencia antes de aplicar filtros digitales de limpieza, llevándose a cabo un promediado exponencial de la FFT en zonas de silencio y en zonas con voz. Gracias a ese examen podemos determinar: rango de frecuencia del habla; relación señal/ruido; presencia de tonos discretos; posible presencia de ruido en determinadas bandas; y efectos de convolución.
Resulta también muy importante controlar dinámicamente la señal de habla y limitar el rango de frecuencias al canal de transmisión o grabación utilizando un limitador que impida saturaciones, un filtrado del ancho de banda del canal, y un compresor/ expansor.
Los distintos tipos de ruido como las distorsiones no lineales ocasionada por niveles de grabación fuera del rango tolerable, el uso de sistemas de transmisión o recepción de escasa calidad, fallos de dispositivos electrónicos, cambios convolucionales producidos por alteraciones de frecuencia lineales del sistema de grabación, canal de transmisión, o de entorno acústico como una habitación reverberante, ruido de sistema como el producido por el equipo reproductor y sistemas de transmisión (por ejemplo, el zumbido de la red o el lloro y centelleo), ruido de entorno como el aditivo a la señal de voz antes de que sea captada por un micrófono (por ejemplo, ruido de televisión, radio, ventilación, tonos, manejo del micrófono, etc.), se combaten con filtros digitales especialmente adaptados a los fenómenos descritos.
MEDIDAS ACÚSTICAS FORENSES.
Desde que el delito medioambiental está tipificado en el Código Penal español, la contaminación acústica pasa a ser una tarea técnica forense. No sólo se trata de medir los índices de contaminación o aislamiento acústicos siguiendo las recomendaciones técnicas internacionales (normas ISO, UNE, IEC) y las dispuestas en la Directiva 2002-49-CE del Parlamento Europeo, de 25 de junio de 2002, sobre evaluación y gestión del ruido ambiente, la Ley 37/2003, de 17 de noviembre, del Ruido, y en las Órdenes de las Consejerías de Medio Ambiente de las Comunidades Autónomas fundamen-talmente, sino que el análisis de los resultados permite evaluar en qué medida el ruido afecta a la salud de las personas. La Autoridad Judicial no está resolviendo, en esos casos, un expediente abierto por una supuesta infracción administrativa.
Las técnicas de acústica arquitectónica, medioambiental, industrial o en campo libre encajan perfectamente en la acústica forense.
Técnicas de acústica arquitectónica.
Se realizan mediciones de aislamiento acústico en interiores de edificios. Se suele utilizar una fuente sonora en el lugar de donde procede el ruido y se miden los tiempos de reverberación e índices de reducción sonora aparente. Con ello se pretende averiguar si un sonido procedente de un habitáculo puede ser percibido en otro contiguo, o incluso, en el caso de la voz, si pudiera ser la conversación inteligible midiendo el índice RASTI. Siempre que intervengan seres humanos, como actores principales en el planteamiento de la pericia, han de ser sometidos a una audiometría.
Técnicas de acústica medioambiental e industrial.
Normalmente se suelen emplear sonómetros integradores que miden diferentes niveles de presión sonora equivalente y con ponderación A, aunque en ocasiones se necesitan medir niveles relacionados con ruidos impulsivos. Se suelen realizar también mapas de ruido cuando existen áreas habitadas afectadas por ruido aéreo: inmediaciones de aeropuertos o infraestructuras ferroviarias, principalmente.
Técnicas de acústica en campo libre.
Cuando el ruido es provocado por un disparo o una explosión y la Autoridad Judicial requiere una pericia sobre la posibilidad de su audición por un testigo, además de la audiometría se hacen necesarias una serie de pruebas acústicas que intenten objetivizar, en la medida de lo posible, la posibilidad real de oír esos sonidos a la distancia y en las circunstancias descritas en su testimonio.
CONCLUSIONES.
La acústica forense es ya una disciplina de la criminalística que ha alcanzado un grado de madurez científica suficiente como para considerarla imprescindible en todo laboratorio especializado. La casuística pericial obliga, a los integrantes de esos laboratorios, a tener amplios conocimientos de fonética, tecnología del sonido y del habla en particular, patologías del habla y procesado de señal.
Donde aún se tiene que experimentar un crecimiento notable es en la práctica pericial de muchos laboratorios hoy día constituidos. Esa falta de experiencia se vislumbra en la práctica inexistencia de protocolos internacionales que armonicen los métodos y procedimientos de trabajo pericial en los distintos laboratorios. No existe consenso todavía en aspectos, tan básicos, como en terminología en autentificación de grabaciones. Sin embargo, no faltan propuestas y foros de discusión, por lo que el futuro es esperanzador.
Debido al constante y creciente desarrollo tecnológico en acústica aplicada, los avances en cada una de las áreas como reconocimiento de locutores por la voz, limpieza de grabaciones, autentificaciones de grabaciones o medidas acústicas relacionadas con el ruido, por ejemplo, obligan a los peritos a tener una necesidad imperiosa de actualizar sus conocimientos y a fomentar la investigación criminalística.
También se ha constatado la importancia, cada vez mayor, de incorporar técnicas de inferencia estadística en la formulación de conclusiones periciales, especialmente los relacionados con identificación de personas por la voz y en autenficación de grabaciones.
Por último, dado que la criminalística tiene una perspectiva propia a la hora de emplear la tecnología y los conocimientos científicos, y su incidencia social es cada vez más relevante y frecuente, se vislumbra un futuro en el que será necesario dar vida a proyectos como la creación de centros específicos de formación criminalística o de titulaciones especiales.


martes, 25 de febrero de 2014

Principios Básicos Grafoscopía

PRINCIPIOS BÁSICOS DE LA ESCRITURA

DOCUMENTO: Es todo aquello que transmite un mensaje (escrito, grabado, videograbado, microfilmado, hablado, en espejo, etc.).

Dentro de la grafoscopía y documentoscopía nos interesa única y exclusivamente el estudio de los documentos escritos.

ESCRITURA

Inicialmente es un movimiento voluntario, pero tiene un predominio del subconsciente, independientemente del órgano que se utilice para escribir.

La escritura no se puede modificar porque ya está grabada en el subconsciente.

LEYES DEL GRAFISMO

En la escritura manuscrita tienen sus génesis (orígenes) las leyes del grafismo enunciadas por el Perito Francés en escritura MANUEL SOLANGE PELLAT, que contribuyen los postulados de la grafoscopía y que son válidas para todos los tipos de idiomas y todos los alfabetos. Estas leyes son las siguientes:

1ª Ley.- El gesto gráfico está sometido a la influencia inmediata del cerebro, el órgano que escribe, no modifica la forma de aquella si funciona normalmente y está lo bastante adaptado a su función.

2ª Ley.- Cuando uno escribe, el “YO” esta en acción, pero el sentimiento, caso inconsciente de esta actuación, pasa por alternativas continuas de intensidad y debilidad. Adquiere el máximo de intensidad cuando tiene que realizar un esfuerzo, es decir, en los comienzos y el mínimo de intensidad cuando el movimiento de la escritura viene secundado por el impulso adquirido, es decir, en los finales.

3ª Ley- No se puede modificar voluntariamente en un momento dado la escritura natural, más que dejando en su trazado la señal del esfuerzo realizado por lograr el cambio.

4ª Ley.- El que escribe en circunstancias en que el acto de escribir es particularmente difícil, traza instintivamente formas de letras que le son más habituales, o bien, formas más sencillas y fáciles de construir.

5ª Ley.- Así como no hay dos personas que reaccionen exactamente igual ante un mismo estímulo, tampoco hay dos personas que escriban exactamente igual.

6ª Ley.- Cada individuo posee una escritura que le es propia y que le diferencia de los demás.

7ª Ley.- La escritura de una persona nunca es igual a sí misma y significa que una persona no escribe siempre igual.

DEFINICIONES

GRAFOSCOPÍA.- Se divide en dos vocablos griegos:

GRAFOS = ESCRITURA SKOPEN = ESTUDIO

GRAFOSCOPÍA = ES EL ESTUDIO DE LA ESCRITURA

GRAFOMETRÍA.- Es el estudio de la escritura a través de medidas.

GRAFOLOGÍA.- Es el estudio de la personalidad, a través de su escritura (materia no pericial).

CALIGRAFÍA.- Es el estudio de la escritura bella.

TAQUIGRAFÍA.- Es la técnica de la escritura rápida utilizando símbolos.

DOCUMENTOSCOPÍA.- Es el estudio de documentos dudosos (material general).

GRAFISTICA.- Es la ciencia que por medio de técnicas analiza un documento dudoso (sinónimo de documentoscopía).

PALEOGRAFÍA.- Estudio de los escritos antiguos.

DECÁLOGO O PRINCIPIOS EN LOS QUE SE BASA LA GRAFOSCOPÍA

1.    El alma y el grafismo están en relación permanente de causa y efecto.

2. El alma es un complejo infinito y así como no hay dos almas iguales, no existen dos
grafismos iguales.

3.-El complejo anímico se modifica por el complejo fisiológico.

4. Los estados de conciencia pasajeros repercuten en el grafismo.

5. La escritura es esencialmente evolutiva, pero con predominio posterior casi absoluto del subconsciente, lo que explica la permanencia y la fijeza de las particularidades gráficas.

6. No se puede disimular simultáneamente todos los elementos de la escritura, ni siquiera la mitad de ellos.

7. Por mucho que pretenda el falsificador o el disimulador, es imposible en escritos extensos que el subconsciente no le juegue alguna mala pasada, revelando la verdadera personalidad del escrito falsificado o disimulado.

8. No se puede disimular la propia grafía sin que se note el esfuerzo de la lucha contra el subconsciente.

9. No todos los signos gráficos tienen el mismo valor, los más importantes son aquellos poco aparentes, pues son los que se escapan lo mismo en la falsificación que en el disimulo.

10. El complejo anímico y la tonalidad general fisiológica, define y determina la fisonomía del escrito, independientemente del órgano que la ejecuta si esta adaptado a la función (escritura con las manos, los pies, la boca, el codo, etc.).


 PRINCIPIOS FUNDAMENTALES

Ley de la disminución del nivel gráfico: Dentro de los casos de modificación voluntaria natural, un escrito de nivel gráfico bajo, no puede atribuírsele al escritor de nivel gráfico elevado.

Ley de la conservación del ritmo personal: Las alternativas diversas del movimiento, presión muscular, dimensión, dirección, inclinación, orden y sistema de unión (enlaces), así como continuidad, son constantes tratándose de un mismo escritor.

Ley de liberación de los impulsos motrices en función del tamaño del escrito: Un falsario no puede indefinidamente mantener sus esfuerzos de imitación y deja escapar entonces características de su propia escritura.

Ley de los ajustes iniciales (SAUDECK, 1928): Todo ajuste gráfico exige un tiempo muerto. Así puede uno juzgar la espontaneidad de un escrito por la simplicidad y reducida frecuencia de los ajustes.

Ley de la degeneración de la escritura (MICHÓN, 1930): La aceleración de la velocidad de la escritura, conduce a un aumento de la inclinación de las letras y a un debilitamiento de la forma.
El ductus de las letras suele quedar idéntico a sí mismo.

Ley del retorno a las formas clásicas o infantiles (MICHÓN, 1930): La facilidad de asimilación lleva instintivamente a simplificar las formas de las letras, conservando un esquema expresivo.

Ley de la evitación: Los añadidos generalmente se arreglan en función del espacio disponible, evitando morder o encimar sobre rasgos anteriores. Las características generales se ven afectadas, pero no el dibujo de las formas.

LA ESCRITURA

La invención de la escritura es la más valiosa aportación de las civilizaciones agrícolas. Es tan importante, que se considera que la prehistoria termina y la historia empieza cuando el hombre aprende a escribir.
Los pueblos de las cuatro grandes civilizaciones (Egipcia, India, China y Sumeria) crearon sus propios sistemas de escritura en los que utilizaron signos y reglas distintos; unos escribían de arriba hacia abajo (China), otros de derecha a izquierda (Egipcios), otros de izquierda a derecha (como el español y la escritura India). Se escribía sobre distintos materiales: tablillas, tablillas de barro fresco (Mesopotamia), tela de seda (China), tiras hechas de una planta llamada papiro (Egipto), placas de cobre (India).
.
Las primeras formas de la escritura tenían el propósito práctico de registrar listados, por ejemplo de los bienes de una persona o de los productos de una cosecha. Le inventaron símbolos que de manera simplificada representaban un objeto o una acción. Más adelante se combinaron estos símbolos para formar oraciones completas. Como se comprenderá, la escritura era muy compleja y difícil porque se necesitan casi tantos signos, con las cosas que se querían expresar. Se calcula que una de las formas más antiguas de la escritura, es la de los sumerios, que vivían en Mesopotamia, esta escritura llegó a tener más de NUEVE MIL SIGLOS distintos.

A través de los años, el número de siglos se redujo considerablemente y se inventaron nuevas formas de combinarlos. Esto hizo posible que se redactaran leyes, narraciones, libros de medicina, etc. Sin embargo el acto de escribir sigue siendo muy complicado, porque había centenares de signos y de reglas para usarlos.
La escritura y la lectura eran un trabajo de especialistas llamados escribas (perito caligráfico), que estudiaban en los templos diez o quince años para dominar su oficio.
Pasaron muchos siglos para que se inventara un nuevo sistema de escritura, en el cual, los siglos solamente representan sonidos. De esta manera, usando entre veinte y treinta siglos es posible escribir cualquier cosa. Este adelanto se lo debemos a los Fenicios, un pequeño pueblo de navegantes y comerciantes de Asia menor, que desarrollo la escritura alfabética aproximadamente en el año 1000 a.C. El sistema inventado por los Fenicios fue mejorado por los griegos y en el se basa el alfabeto que actualmente utilizamos para leer y escribir el español.

DOCUMENTO

Es todo aquello que nos transmite un mensaje ya sea escrito, grabado, fotografiado, fotocopiado, impreso, videofilmado, microfilmado, oral, manuscrito, etc.

El estudio pericial grafoscópico se basa en los documentos escritos.

Las letras están formadas por dos elementos fundamentales, el trazo y el rasgo.

El trazo, es el elemento principal de la letra y sin el, simplemente no existe la misma.

El rasgo, es el elemento subjetivo de la letra, puede o no estar presente en la misma.

Los trazos son magistrales y son realizados de arriba hacia abajo, observándose con mayor presión la parte superior y con menor la inferior.

El rasgo puede ser de tres formas: inicial, final o remate y enlace.

En todo tipo de escritura, existen tres fundamentales: el soporte, la escritura y el tiempo.

El soporte, es el objeto material sobre el cual se suscribirá el documento, que puede ser papel, espejo, pizarrón, madera, etc.

El útil suscriptor, es el instrumento u objeto con el que se suscribe el documento y puede ser lápiz, bolígrafo, pluma fuente, lapicero, lápiz labial, los dedos, etc.


La escritura para su estudio, se ha dividido en dos tipos de características: características de orden general y las particularidades morfológicas.