jueves, 31 de octubre de 2013

THD "TOTAL HARMONIC DISTORSION"

Si en un sistema no lineal introducimos un tono de frecuencia f_0\,, en la salida tendremos ese mismo tono (con una amplitud y fase posiblemente diferentes) y, sumado a él, otros tonos de frecuencia 2f_0, 3f_0, \ldots\, llamados armónicos del tono fundamental f_0\,. Definimos THD de la siguiente manera:



\mbox{THD} = {\sum{\mbox{Potencia de los armonicos}} \over \mbox{Potencia de la frecuencia fundamental}} = {{P_1 + P_2 + P_3 + \cdots + P_N} \over P_0}

donde P_0 es la potencia del tono fundamental y P_i con i > 0 es la potencia del armónico i-ésimo que contiene la señal. Todas las medidas de potencia se realizan en la salida del sistema, mediante un filtro paso banda y un osciloscopio o bien mediante un analizador de espectro.

Distorsión armónica en sonido

La distorsión armónica es un parámetro técnico utilizado para definir la señal de audio que sale de un sistema.
La distorsión armónica se produce cuando la señal de salida de un sistema no equivale a la señal que entró en él. Esta falta de linealidad afecta a la forma de la onda, porque el equipo ha introducido armónicos que no estaban en la señal de entrada. Puesto que son armónicos, es decir múltiplos de la señal de entrada, esta distorsión no es tan disonante y es más difícil de detectar.
En todo sistema de audio siempre se produce una pequeña distorsión de la señal, dado que todos los equipos actuales introducen alguna no linealidad...
La distorsión armónica no siempre implica pérdida de calidad. De hecho, la distorsión se considera un efecto de sonido imprescindible para ciertos géneros musicales (básicamente rock) y así, se suele saturar artificialmente la señal básica producida por ciertos instrumentos (como guitarras eléctricas). En este sentido, la distorsión apareció en la música primero como consecuencia indeseada de la saturación de las etapas del sistema de amplificación (debido al uso de amplificadores de escasa potencia y pastillashumbuckers), y después se crearon unidades de efecto que producían artificialmente ese efecto, con independencia del equipo utilizado.
También algunos soportes, como ocurre con los viejos vinilos introducen distorsión armónica, sin embargo en éste y similares casos hay controversia (ver audiófilos) y hay quienes sostienen que sin esta distorsión armónica, el sonido seria “demasiado puro o frío”. Tal es el caso, que actualmente, (2005), no son pocos los grupos que, a pesar de procesar la señal por completo en sistemas digitales, graban sus trabajos en vinilo, para utilizar esa sonoridad tras remasterizarlos en la copia comercial final.
Al hablar de distorsión armónica, normalmente se hace referencia a la llamada distorsión armónica total, que es precisamente, la cantidad de armónicos que el equipo introduce y que no estaban en la señal original.
Para normalizar las medidas. La distorsión armónica total se mide introduciendo un tono de 1 kHz y midiendo la señal de salida. En los parámetros técnicos de los equipos, suele figurar la distorsión armónica total y se da en forma de porcentaje. Habitualmente, se indica con las siglas en inglés THD (Total Harmonic Distortion). Por ejemplo, THD 0,3 @ 1 kHz.
La distorsión armónica total nunca debe estar por encima del 1%. De estarlo, en lugar de enriquecer la señal, la distorsión empieza a desvirtuarla y el sonido resultante empieza a dejar de parecerse al original, aunque se utilizan distorsiones superiores con objetivo artístico
Hay que tener cuidado por que, 'THD' también son las siglas en inglés de Third Harmonic Distortion, que es otro parámetro que indican algunos equipos.
La distorsión en el tercer armónico (Third Harmonic Distortion) es un parámetro a tener en cuenta en los magnetófonos (sistemas de grabación magnética).
En este caso, seria mejor que se indicara el MOL (Maxim Output Level, en español, nivel máximo de salida) para hacer referencia al nivel de distorsión en el tercer armónico.
Esta distorsión en el tercer armónico resulta muy fácil de detectar. Si grabamos un tono puro en un magnetófono y lo reproducimos, el tono ya no suena “puro” sino que tiene una componente en una octava y una quinta por encima del tono fundamental.
En los sistemas magnéticos el MOL debe estar en un porcentaje de:
  • 3% a 1 kHz si se trata de un sistema profesional
  • 5%, si son equipos domésticos.
Sobrepasar el nivel de distorsion aceptable por el sistema, supone poder modificar el sonido hasta el punto de que resulta diferente al original o queda “roto”.

Distorsión armónica en electricidad

En sistemas eléctricos de corriente alterna los armónicos son, igual que en acústica, frecuencias múltiplos de la frecuencia fundamental de trabajo del sistema y cuya amplitud va decreciendo conforme aumenta el múltiplo. En el caso de sistemas alimentados por la red de 50 Hz, pueden aparecer armónicos de 100, 150, 200, etc Hz.
Cuando se habla de los armónicos en las instalaciones de energía, son los armónicos de corriente los más preocupantes, puesto que son corrientes que generan efectos negativos. Es habitual trabajar únicamente con valores correspondientes a la distorsión armónica total (THD).
Tipos de equipos que generan armónicos :
  • Fuentes de alimentación de funcionamiento conmutado (SMPS)
  • Estabilizadores electrónicos de dispositivos de iluminación fluorescente
  • Pequeñas unidades de Sistemas de Alimentación Ininterrumpida (SAI o UPS)
  • En cargas trifásicas : motores de velocidad variable y grandes unidades de UPS
Problemas producidos por los armónicos:
  • Sobrecarga de los conductores neutros
  • Sobrecalentamiento de los transformadores
  • Disparos intempestivos de los interruptores automáticos
  • Sobrecarga de los condensadores de corrección del factor de potencia
Métodos para reducir los armónicos:
  • Filtros pasivos
  • Transformadores de aislamiento
  • Soluciones activas

miércoles, 23 de octubre de 2013

COOLEY-TUKEY

ALGORITMO FFT COOLEY-TUKEY
El algoritmo de Cooley-Tukey, el nombre de J.W. Cooley y John Tukey, es el rápido algoritmo de transformada de Fourier más común. Se re-expresa la transformada discreta de Fourier de un tamaño arbitrario compuesto N = n1n2 en términos de DFT más pequeñas de tamaños N1 y N2, de forma recursiva, con el fin de reducir el tiempo de cálculo a O para altamente compuesto N. Debido a la importancia del algoritmo, variantes específicas y estilos de ejecución han dado a conocer por sus propios nombres, como se describe a continuación.
Debido a que el algoritmo de Cooley-Tukey rompe la DFT en DFT más pequeñas, se puede combinar arbitrariamente con cualquier otro algoritmo para la DFT. Por ejemplo, el algoritmo de Rader o Bluestein de se puede utilizar para manejar grandes factores primos que no pueden ser descompuestos por Cooley-Tukey, o el algoritmo de máxima audiencia factor puede ser aprovechada para una mayor eficiencia en la separación de los factores primos.
Ver también la transformada rápida de Fourier para obtener información sobre otros algoritmos FFT, especializaciones para los datos reales y/o simétrica, y la precisión en la cara de punto flotante de precisión finita.

HISTORIA
Este algoritmo, incluyendo su aplicación recursiva, fue inventado alrededor de 1805 por Carl Friedrich Gauss, que lo utilizó para interpolar las trayectorias de los asteroides Pallas y Juno, pero su trabajo no fue ampliamente reconocido. Gauss no analizó el tiempo de cálculo asintótica, sin embargo. Diversas formas limitadas también fueron descubiertas varias veces a lo largo de los siglos 19 y 20. FFT se hizo popular después de que James Cooley de IBM y John Tukey de Princeton publicó un artículo en 1965 reinventando el algoritmo y la descripción de cómo llevar a cabo convenientemente en un ordenador.
Tukey al parecer se le ocurrió la idea durante una reunión de un comité asesor presidencial de EE.UU. discutir maneras de detectar ensayos de armas nucleares en la Unión Soviética. Otro de los participantes en esa reunión, Richard Garwin de IBM, reconoció el potencial del método Tukey y poner en contacto con Cooley, quien implementó un problema diferente: el análisis de los datos cristalográficos 3d. Cooley y Tukey posteriormente publicaron su documento conjunto, y la adopción a gran siguieron rápidamente.
El hecho de que Gauss había descrito el mismo algoritmo no se realizó sino hasta varios años después de papel Cooley y Tukey 1965. Su artículo citado como inspiración única obra de IJ buena en lo que ahora se llama el algoritmo FFT primer factor; algoritmo aunque de buen principio se pensó equivocadamente que es equivalente al algoritmo de Cooley-Tukey, se dio cuenta rápidamente de que PFA es un algoritmo muy diferente .

FACTORIZACIONES GENERALES
Más en general, los algoritmos de Cooley-Tukey recursiva re-expresan una DFT de un tamaño compuesto N = n1n2 como:
  • Realizar DFTs N1 N2 tamaño.
  • Multiplique por las raíces complejas de la unidad llamados factores de rotación.
  • Realizar DFTs N2 de tamaño N1.
  • Por lo general, ya sea N1 o N2 es un pequeño factor, llamado el radix. Si N1 es la raíz, que se llama un algoritmo de decimación en el tiempo, mientras que si N2 es la raíz, es decimación en frecuencia. La versión anterior fue presentado un algoritmo radix-2 DIT, en la expresión final, la fase de multiplicación de la transformación extraña es el factor twiddle y el +/- combinación de las transformaciones pares e impares es una talla 2 DFT.
    Hay muchas otras variaciones en el algoritmo de Cooley-Tukey. Mezclado-radix implementaciones de identificadores tamaños compuestos con una variedad de factores, además de a dos, por lo general empleando el algoritmo de O para los casos base primos de la recursión. Dividir radix se funde radices 2 y 4, explotando el hecho de que la primera transformada de base 2 no requiere ningún factor de vuelta ligera, con el fin de lograr lo que fue durante mucho tiempo el recuento de operación aritmética conocido bajo para poder de dos tamaños, aunque las variaciones recientes lograr un recuento aún más baja . Otra manera de mirar el algoritmo de Cooley-Tukey es que se re-expresa un tamaño N DFT unidimensional como por N1 N2 DFT de dos dimensiones, donde se transpone la matriz de salida. El resultado neto de todas estas transposiciones, para un algoritmo de radix-2, corresponde a una inversión de bit de la entrada o salida de índices. Si, en lugar de utilizar una pequeña radix, uno emplea una base de más o menos vN y de entrada/salida de transposiciones matriz explícita, se llama un algoritmo de cuatro pasos, propuesto inicialmente para mejorar la localidad de memoria, por ejemplo, para la optimización de caché o fuera de servicio de núcleo, y más tarde se demostró que un algoritmo de caché-ajeno óptima.
    El Cooley-Tukey factorización en general vuelve a escribir el índices k y n como y, respectivamente, donde los índices de ka y na van desde 0 .. Na-1. Es decir, que volvió a los índices de entrada y salida como N1 N2 por matrices bidimensionales en orden de columna-principal y de las filas, respectivamente, la diferencia entre estas indexaciones es una transposición, como se mencionó anteriormente. Cuando re-indexación se sustituye en la fórmula DFT para nk, el término cruzada desaparece, y los términos restantes dan
    donde cada suma interna es una DFT de N2 tamaño, cada suma exterior es una DFT de tamaño N1, y el término entre corchetes es el factor de vuelta ligera.
    Un radix arbitraria r se puede emplear, como se ha demostrado por tanto Cooley y Tukey, así como de Gauss. Cooley y Tukey asumieron inicialmente que la raíz de la mariposa requiere O el trabajo y por lo tanto, calcula la complejidad de una raíz r que O = O, desde el cálculo de los valores de r/log2r para valores enteros de r 2-12 la óptima base se encuentra a ser 3. Este análisis era errónea, sin embargo: la radix-mariposa es también una DFT y se puede realizar a través de un algoritmo de FFT en las operaciones de O, por lo tanto, la raíz r cancela realmente en la complejidad O, y la r óptima se determina por consideraciones más complicados. En la práctica, bastante grande r son importantes con el fin de explotar eficazmente por ejemplo, el gran número de registros del procesador en los procesadores modernos, e incluso una ilimitada radix r = vN también logra complejidad O y tiene ventajas teóricas y prácticas para grandes N como se mencionó anteriormente.