Fusión del modelo de media móvil y descomposición estacionaria de wavelets para la detección automática de incidentes: estudio de caso de la autopista de Tokio Qinghua Liu 1. 2, Edward Chung 3.. , Liujia Zhai 1 1 Escuela de Ingeniería de Informática, Universidad de Ciencia y Tecnología de Jiangsu, Zhenjiang, Jiangsu, China 2 Escuela de Ingeniería de Transporte, Universidad de Tongji, Shanghai, China 3 Centro de Investigación de Transporte Inteligente, Universidad de Queensland, Brisbane, Queensland , Australia Disponible en línea 24 Febrero 2017Resumen: La congestión del tráfico es un problema creciente en las áreas urbanas de todo el mundo. El sector del transporte ha estado en plena marcha el estudio de eventos sobre el sistema de transporte inteligente para la detección automática. La funcionalidad de la detección automática de incidentes en autopistas es un objetivo primario del avanzado sistema de gestión del tráfico. Para salvar vidas y evitar incidentes secundarios, es necesaria una detección precisa y rápida de incidentes. Este artículo presenta una metodología que integra el modelo de media móvil (MA) con descomposición estacionaria de wavelets para la detección automática de incidentes, en la que se extraen parámetros del coeficiente de capa de la diferencia entre la ocupación aguas arriba y aguas abajo. A diferencia de otro método basado en wavelet presentado antes, en primer lugar suaviza los datos sin procesar con el modelo MA. A continuación, utiliza wavelet estacionario para descomponerse, lo que puede lograr la reconstrucción exacta de la señal, y no cambia los coeficientes de transferencia de señal. Por lo tanto, puede detectar los incidentes con mayor precisión. El umbral para activar la alarma de incidente también se ajusta de acuerdo con la condición de tráfico normal con congestión. La metodología se valida con datos reales de los sensores ultrasónicos de Tokio Expressway. Los resultados experimentales muestran que es preciso y eficaz, y que puede diferenciar accidentes de tráfico de otras condiciones como la congestión de tráfico recurrente. Palabras clave: detección automática de incidentes, descomposición de wavelets estacionaria en el modelo de media móvil Tokio Expressway 1. Introducción La congestión del tráfico es un problema creciente en las zonas urbanas de todo el mundo. Han et al. (2007) analizaron que gran parte de la congestión es causada por incidentes que se refieren a eventos no recurrentes como accidentes, averías, escombros, cargas derramadas, inclemencias del tiempo, mantenimiento temporal y actividades de construcción, así como otros eventos inusuales o especiales Que interrumpen el flujo normal de tráfico. Durante un incidente, la capacidad normal del camino está restringida y las colas y los retrasos ocurren a menudo. Cada año los accidentes y obstrucciones de las autopistas resultan en congestión del tráfico, contaminación ambiental y daños en propiedades, lesiones personales y muertes. La detección precisa y rápida de incidentes es crucial para responder a esas emergencias con el fin de salvar vidas, prevenir incidentes secundarios y restablecer las operaciones normales de manera oportuna. Un estudio (Charles 2007) reveló la creciente contribución de los incidentes a la congestión de autopistas y otros problemas ha generado un gran interés en el desarrollo de métodos eficaces y efectivos de detección automática de incidentes (AID) en las últimas décadas. Hoy en día la funcionalidad de la AID en las autopistas es un objetivo primario del sistema avanzado de gestión del tráfico (ATMS), que es un componente integral de un sistema de transporte inteligente de countryrsquos (ITS). El objetivo de este trabajo es proponer y validar una metodología para la detección de incidentes en el modelo de media móvil de fusión de la autopista y la descomposición en wavelet estacionaria. Los datos se obtienen de los sensores ultrasónicos Tokyo Expressway. En el campo de datos hay algunos datos faltantes causados por el retardo de comunicación, así como la onda de choque, lo que puede causar una falsa alarma. Por lo tanto, la metodología desarrollada debe ser robusta con estos ruidos consistentes en datos reales. Para resolver este problema, se aplica un modelo de MA para suavizar los datos sin procesar primero. Entonces se aplica la descomposición wavelet en los datos de velocidad y ocupación. El flujo de tráfico en condiciones normales tiene cierta inercia, pero cuando ocurre un evento, el estado del flujo de tráfico cambia y se refleja en el desempeño de los parámetros de tráfico. El análisis wavelet tiene un buen rendimiento, frecuencia ideal y características locales en el análisis de datos transitorios. A diferencia de otros métodos basados en wavelet presentados anteriormente, en este documento se aplica una descomposición de wavelet estacionaria, en la que el coeficiente de transferencia de la señal no se desplaza y, por tanto, puede detectar con mayor precisión el tiempo de incidencia. La metodología propuesta se prueba con los datos de los sensores de tráfico de la autopista Metropolitana de Tokio. Este artículo está organizado de la siguiente manera: La Sección 2 proporciona la revisión de la literatura para los algoritmos de detección de incidentes. La sección 3 proporciona una introducción a la transformación discreta wavelet y la transformada wavelet estacionaria. Los datos de los sensores ultrasónicos de la autopista metropolitana de Tokio utilizados en este estudio se presentan en la sección 4. A continuación, la metodología de la AID propuesta para la autopista se describe en la sección 5, seguida de sus resultados de pruebas y validación con los datos de campo en la sección 6. Finalmente, Y la discusión se presentan en la Sección 7. 2. Revisión de la literatura Desde la década de 1970, se han desarrollado varios sistemas automáticos de detección de incidentes (Cook y Cleveland, 1974. Bong et al., 1995. Dia y Rose, 1997. Cheu y otros, 2004. Crabtree y Stamatiadis, 2007. Jeong Et al., 2011 xA0andxA0Kadali et al., 2017). Los sistemas de AID involucran dos componentes principales, la tecnología de detección y el algoritmo de detección de incidentes. La tecnología de detección de tráfico proporciona la información de tráfico necesaria para detectar un incidente, mientras que el algoritmo de detección de incidentes interpreta esa información y determina la presencia o ausencia de incidentes. El desempeño del sistema AID se evalúa por tres criterios principales (Chung y Rosalion, 1999 xA0andxA0Jiang et al., 2001). 2.1. Criterios de evaluación del rendimiento Los parámetros son la tasa de detección (DR), la tasa de falsas alarmas (FAR) y el tiempo medio de detección (MTTD). El DR es la relación entre el número de incidentes detectados y el número registrado de incidentes en el conjunto de datos. Se da como un porcentaje. Los algoritmos examinan los incidentes en cada intervalo de tiempo discreto, como 20xA0s, 30xA0s y 1xA0min. La FAR es la relación entre el intervalo de detección incorrecto y el número total de intervalos a los que se aplicó el algoritmo. Normalmente se expresa como porcentaje por sección (entre la estación de detección aguas arriba y aguas abajo). FAR N f N t veces 100 donde N f es el número de intervalo de detección incorrecto N t es el número total de intervalos a los que se aplicó el algoritmo. El tiempo de detección es la diferencia de tiempo entre el momento en que el incidente fue detectado por el algoritmo y el momento en que ocurrió el incidente. El MTTD es el tiempo promedio para la detección de n incidentes. 2.2. Tecnología de detección Existen varias tecnologías disponibles para la gestión del tráfico que también se utilizan para detectar incidentes. Estas tecnologías incluyen: Los detectores de bucle inductivos utilizan bucles magnéticos o inductivos incrustados en el pavimento para detectar la presencia de un vehículo, los más comunes detectores de radar de microondas, infrarrojos, detección ultrasónica, detectores no intrusivos, montados sobre una estructura sobre la carretera. Li y McDonald (2005) describieron que la instalación del sistema de peaje electrónico permite a los usuarios de sistemas de detección de imágenes de vídeo En una proporción cada vez mayor de la flota de vehículos proporcionó la oportunidad de utilizar los vehículos de sondeo como sensores para medir la velocidad y el tiempo de viaje. La tecnología de reconocimiento automático de placas de matrícula se puede usar como alternativa, la localización de teléfonos móviles es similar en concepto a las sondas de vehículos, pero utilizando triangulación para monitorear las velocidades de viaje del vehículo, por lo que es capaz de detectar incidentes (Cheu et al. Como se informó anteriormente, los detectores de bucle inductivos incrustados en el pavimento se usan típicamente para obtener datos de tráfico. Los datos comprenden la velocidad, el flujo y la ocupación y se proporcionan típicamente en 20xA0sxA0cycles. Los datos de este tipo formarían la entrada a un algoritmo de detección de incidentes, que elevaría una bandera para indicar la presencia de un incidente. 2.3. Algoritmos de detección de incidentes Una gran cantidad de trabajo de investigación y desarrollo se ha centrado en los algoritmos de detección automática de incidentes. Estos algoritmos de AID se pueden clasificar en las siguientes categorías. (1) Algoritmos de comparación Los algoritmos de comparación comparan las condiciones actuales del tráfico, como el volumen y la ocupación, con los umbrales preestablecidos y deciden si ha ocurrido o no un incidente. Ejemplos de algoritmos de comparación incluyen el algoritmo de California, el algoritmo de California 7, el algoritmo de California 8 y otros algoritmos de reconocimiento de patrones modificados o mejorados. Predicción exactitud Primera Online: 29 de julio de 2017 Recibido: 17 de enero de 2017 Aceptado: 14 de julio de 2017 Citar este artículo como: Akrami, SA El-Shafie, A. Naseri, M. et al. Neural Comput Applic (2017) 25: 1853. doi: 10.1007 / s00521-014-1675-0 2 Citas 225 Vistas El pronóstico de precipitaciones y la aproximación de su magnitud tienen un papel enorme e imperativo en la gestión del agua y la previsión de escurrimiento. El objetivo principal de este trabajo es obtener la relación entre las series de tiempo de lluvia obtenidas de la transformada wavelet (WT) y el promedio móvil (MA) en la cuenca del río Klang, Malasia. Para este propósito, se aplicaron los Haar y Dmey WTs para descomponer las series de tiempo de precipitación en 7, 10 niveles de resolución diferentes, respectivamente. Se llevaron a cabo varios estudios de casos de preprocesamiento basados en MAs de 2, 3, 5, 10, 15, 20, 25 y 30 meses para descubrir una tendencia a más largo plazo en comparación con una MA de más corto plazo. La información y los datos se recopilaron de Klang Gates Dam, Malasia, de 1997 a 2008. En cuanto al comportamiento, la serie temporal de precipitaciones de 10, 15, 20 y 30 días se descompone en coeficientes de aproximación y detalles con diferentes tipos De WT. El coeficiente de correlación R 2 y el criterio de error cuadrático medio radicular se aplican para examinar el rendimiento de los modelos. Los resultados muestran que existen algunas similitudes entre los filtros MA y los filtros de subescalas de aproximación wavelet debido a la eliminación del ruido. Por otra parte, los resultados obtenidos que la alta correlación con MAs se puede lograr a través de Dmey WT en comparación con Haar wavelet de precipitación de datos. Además, las señales limpias podrían utilizarse como insumos modelo para mejorar el rendimiento del modelo. Por lo tanto, las técnicas de descomposición de señales con el propósito de preprocesamiento de datos podrían ser favorables y podrían ser apropiadas para la eliminación de los errores. Desarrollo de un modelo no lineal basado en wavelet-ANFIS para el pronóstico de lluvias en la presa de Klang Gates. (2006) Preprocesamiento de datos para la predicción de caudales fluviales utilizando redes neuronales: transformaciones wavelet y partición de datos. Phys Chem Earth 31: 11641171 CrossRef Chang FJ, Chen L (1998) Algoritmo genético codificado real para el manejo de reservorios de control de inundaciones basado en reglas. (2009) Reconocimiento de patrones invariantes usando radón, wavelet complejo de árbol dual y transformadas de Fourier. Reconocimiento de Patrones 42: 20172019 CrossRef MATH Chen RJC, Bloomfield P, Fu JS (2003) Una evaluación de métodos alternativos de predicción para visitas de recreación. Jocs Res 35 (4): 441454 Centro de Observación de la Tierra, Universiti Kebangsaan Malasia (UKM), Malasia 2017 Fonseca ES, Guido RC, Scalassara PR (2007) ComputRobi Med 37: 571578 CrossRef Fu Y, Serrai H (2011) Imágenes de resonancia magnética rápida (MRSI) mediante codificación wavelet y imágenes paralelas: resultados in vitro. J Magn Reson 211: 4551 CrossRef Genovese L, Videaud B, Ospici M, T de Deutschd, Goedeckere S, Mhaut JF (2011) Daubechies wavelets para los cálculos de la estructura electrónica del alto rendimiento. CR Mec 339: 149164 CrossRef MATH Lisi F, Nicolí O, Sandri M (1995) Combinación de análisis de espectro singular y redes neuronales para la predicción de series de tiempo. Redes neuronales para la predicción y pronóstico de variables de recursos hídricos: una revisión de los problemas y aplicaciones de modelado. Environ Model Softw 15: 101123 CrossRef Mallat SG (1998) Una excursión en onda del procesamiento de señales. Academia de Prensa, San Diego MATH Masset P (2008) Análisis de series de tiempo financiero utilizando métodos de Fourier y Wavelet, Universidad de Friburgo (Suiza) Facultad de Ciencias Económicas y Sociales Newbold P, Carlson WL, Thorne BM Economía (quinta versión). Prentice Hall, Upper Saddle River, Nourani V, Komasi M, Mano A (2009) Un enfoque multivariante de onda de ANN para el modelado de lluvia-escorrentía. Water Resour Manag 23: 28772894 CrossRef Partal T, Kisi O (2007) Modelo de conjunción wavelet y neuro-fuzzy para la predicción de precipitaciones. J Hydrol 342: 199212 CrossRef Rioul O, Vetterli M (1991) Ondas y procesamiento de señales. IEEE SP Magazine. Pp 1438 Serrai H, Senhadji L (2005) Reducción del tiempo de adquisición en la resonancia magnética de imágenes espectroscópicas utilizando la codificación de onda discreta. J Magn Reson 177: 2230 CrossRef Shafiekhah M, diputado de Moghaddam, Sheikh El Eslami MK (2011) Previsión de precios de los mercados de electricidad de un día a otro utilizando un método de pronóstico híbrido. Energía Convers Manag 52: 21652169 CrossRef Sifuzzaman M, Islamand MR, Ali MZ (2009) Aplicación de la transformada wavelet y sus ventajas en comparación con la transformada fourier. J Phys Sci 13: 121134 Syed AR, Aqil B, Badar S (2010) Pronosticar la carga de tráfico de la red utilizando filtros wavelet y modelo automovilístico de media móvil de temporada. Métodos para mejorar el rendimiento de la red neuronal en la predicción de flujos diarios. J Hydrol 372: 8093 CrossRef Yang X, Ren H, Li B (2008) Codificación de wavelets de árbol cero incrustado basado en el agrupamiento fuzzy adaptativo para la compresión de imágenes. Image Vis Comput 26: 812819 CrossRef Zhao X, Ye B (2010) Transformación de paquete wavelet de convolución y sus aplicaciones al procesamiento de señales. Digit Signal Process 20: 13521364 CrossRef Información sobre los derechos de autor El Foro de Aplicaciones Informáticas Naturales 2017 Autores y Afiliaciones Seyed Ahmad Akrami 1 Autor de correo electrónico Ahmed El-Shafie 1 Mahdi Naseri 2 Celso AG Santos 3 1. Departamento de Ingeniería Civil y Estructural Universiti Kebangsaan Malaysia (UKM) Bangi Malasia 2. Departamento de Ingeniería Civil Universidad de Birjand Birjand Irán 3. Departamento de Ingeniería Civil y Ambiental Universidad Federal de Paraba Joo Pessoa Brasil Acerca de este artículoUn método de detección de QRS en tiempo real basado en el cambio de promediado que incorpora con el destructor de wavelets Szi-Wen Chen a . . , Hsiao-Chen Chen a. , Hsiao-Lung Chan b. Departamento de Ingeniería Electrónica, Universidad de Chang Gung, Universidad de Chang Gung, Kwei-Shan, Tao-Yuan 333, Taiwán Departamento de Ingeniería Eléctrica, Universidad de Chang Gung, Kwei-Shan, Tao-Yuan 333, En este artículo se propone un método de cálculo basado en la media móvil simple para la detección de QRS en tiempo real. Además, para el preprocesamiento de la señal, nuestro algoritmo de detección también incorpora un procedimiento de eliminación de descomposición basado en wavelets para reducir eficazmente el nivel de ruido de los datos del electrocardiograma (ECG). La estructura computacional global del algoritmo propuesto permite que la detección de QRS sea realizada e implementada en tiempo real con alta eficiencia de tiempo y memoria. El rendimiento del algoritmo se evaluó en base a la base de datos Arritmia MIT-BIH. Los resultados numéricos indicaron que el nuevo algoritmo finalmente alcanzó aproximadamente 99,5 de la tasa de detección para la base de datos estándar, y también, podría funcionar confiable incluso bajo la condición de mala calidad de la señal en los datos medidos de ECG. Palabras clave Electrocardiograma (ECG) Media móvil de detección QRS Wavelet denoising Autor correspondiente. Tel. 886 3 2118800x5792 fax: 886 3 2118507. Copia de copyright 2006 Elsevier Ireland Ltd. Todos los derechos reservados. Las cookies son utilizadas por este sitio. Para obtener más información, visite la página de cookies. Copyright 2017 Elsevier B. V. o sus licenciantes o contribuyentes. ScienceDirect es una marca registrada de Elsevier B. V. Esta fue la primera página web que escribí en Wavelets. De esta semilla crecieron otras páginas web que discuten una variedad de temas relacionados con wavelets. Para ver una tabla de contenido, vea Wavelets y Signal Processing. Esta página web aplica la transformación wavelet a una serie de tiempo compuesta de precios de cierre del mercado bursátil. Las páginas web posteriores se expanden en este trabajo en una variedad de áreas (por ejemplo, compresión, análisis espectral y pronóstico). Cuando comencé a pensar que iba a implementar la onda Haar y que algunos de mis colegas podrían encontrar útil. No esperaba que el procesamiento de señales fuera un tema tan interesante. Tampoco entendí que muchas áreas diferentes de la informática, matemáticas y finanzas cuantitativas serían tocadas por wavelets. Seguí encontrando que una cosa conducía a otra, haciendo difícil encontrar un lugar de parada lógico. Este camino errante de descubrimiento de mi parte también explica el crecimiento algo orgánico de estas páginas web. He tratado de dominar este crecimiento y organizarlo, pero me temo que todavía refleja el hecho de que no sabía a dónde iba cuando comencé. El código Java publicado junto con esta página web refleja el primer trabajo que hice en wavelets. Los algoritmos más sofisticados basados en esquemas de levantamiento, implementados en Java se pueden encontrar en otras páginas web. El código de esquema de elevación wavelet, publicado en otras páginas web, es más sencillo y más fácil de entender. El esquema de elevación wavelet también proporciona un marco elegante y potente para implementar una gama de algoritmos wavelet. Al implementar algoritmos de paquete wavelet, cambié de Java a C. El algoritmo de paquete wavelet que he utilizado es más simple y más elegante utilizando las funciones de sobrecarga del operador Cs. C también admite estructuras de datos genéricas (plantillas), lo que me permitió implementar una jerarquía de clases genéricas para wavelets. Este código incluye varios algoritmos wavelet diferentes, incluyendo Haar, interpolación lineal y Daubechies D4. Al igual que los algoritmos wavelet, el modelado financiero hecho aquí representa un trabajo muy temprano. Cuando comencé a trabajar en estas páginas web no tenía experiencia en el modelado de series de tiempo financieras. El trabajo descrito en esta página web conduce a experimentos más intensivos con filtros wavelet en modelos financieros, en los que continúo trabajando. En esta página web uso los precios de cierre de la bolsa. En el modelado financiero uno utiliza generalmente vueltas, puesto que lo que usted está intentando predecir es vuelta futura. Me interesé por las wavelets por accidente. Yo estaba trabajando en el software involucrado con series de tiempo financiero (por ejemplo, el precio de apertura y cierre de acciones), así que supongo que fue un accidente esperando a suceder. Estaba leyendo el número de febrero de 2001 de la revista WIRED cuando vi el gráfico que se incluye a continuación. Cada mes WIRED ejecuta varias visualizaciones gráficas de datos financieros y este fue uno de ellos. Si los precios de las acciones realmente tienen en cuenta toda la información conocible, un gráfico de precios compuesto debe proceder de una manera ordenada, ya que la nueva información empuja el valor percibido contra la atracción de las tendencias establecidas. El análisis wavelet, ampliamente utilizado en las comunicaciones para separar la señal (movimiento modelado) del ruido (actividad aleatoria), sugiere lo contrario. Esta imagen muestra los resultados de la ejecución de una transformación de Haar - la fórmula wavelet fundamental - en el cierre diario del Dow y NASDQ desde 1993. Las montañas azules constituyen la señal. Los picos rojos incrustados representan ruido, de los cuales la línea amarilla sigue una media móvil de 50 días. El ruido, que puede ser considerado como la ignorancia de los inversores, ha aumentado junto con el valor de ambos índices. Pero mientras que el ruido en el Dow ha crecido un 500 por ciento en promedio, el ruido del NASDAQ se ha disparado 3.000 por ciento, superando ampliamente el crecimiento espectacular de 500 por ciento de NASDAQ durante el mismo período. La mayor parte de este aumento se ha producido desde 1997, con un aumento extraordinario desde enero de 2000. Tal vez hubo un glide Y2K después de todo - uno que descarriló no los sistemas operativos y CPUs, pero - la psicología de los inversores. - Clem Chambers (clemcadvfn). Gráfico y cita de WIRED Magazine, febrero de 2001, pág. 176 Soy un platónico. Creo que, en abstracto, hay verdad, pero que nunca podemos alcanzarla. Sólo podemos alcanzar una aproximación, o una sombra de verdad. La ciencia moderna lo expresa como la incertidumbre de Heisenberg. Una visión platónica de una serie de tiempo financiero es que hay una verdadera serie de tiempo que se oscurece hasta cierto punto por el ruido. Por ejemplo, un precio cerrado o una serie de tiempo de oferta / demanda para una acción se mueve sobre la base de la oferta y la demanda de acciones. En el caso de una serie de tiempo de oferta / demanda, la curva de oferta / demanda estará rodeada por el ruido creado por la llegada de orden aleatoria. Si, de alguna manera, el ruido pudiera ser filtrado, veríamos la verdadera curva de oferta / demanda. El software que utiliza esta información podría ser capaz de hacer un trabajo mejor porque no sería confundido por falsos movimientos creados por el ruido. El gráfico WIRED anterior sugiere que el análisis wavelet puede ser utilizado para filtrar una serie financiera de tiempo para eliminar el ruido asociado. Por supuesto, hay una gran área que no se aborda por la cita WIRED. ¿Qué son, por ejemplo, el ruido? ¿Qué son las wavelets y las wavelets de Haar? ¿Por qué las wavelets son útiles en el análisis de las series de tiempo financieras? Cuando vi esta gráfica, yo sabía las respuestas a ninguna de estas preguntas. El análisis proporcionado en el breve párrafo WIRED es también superficial. El ruido en la serie de tiempo aumenta con el volumen de operaciones. Con el fin de afirmar que el ruido ha aumentado, el ruido debe normalizarse para el volumen de operaciones. Leer es algo peligroso. Puede lanzarte en direcciones extrañas. Me mudé de California a Santa Fe, Nuevo México porque leí un libro. Que un gráfico en la revista WIRED me lanzó por un camino que pasé muchos meses después. Como cualquier aventura, no estoy seguro si me hubiera embarcado en este si hubiera sabido cuánto tiempo y, a veces, difícil, el viaje sería. Hace años, cuando salió por primera vez, compré una copia del libro El mundo según Wavelets de Barbara Hubbard, sobre la base de una revisión que leí en la revista Science. El libro se sentó en mi estante sin leer hasta que vi el gráfico WIRED. Wavelets han sido algo de una moda, una palabra de moda que la gente ha tirado alrededor. Barbara Hubbard comenzó a escribir El mundo de acuerdo con Wavelets cuando la moda wavelet estaba empezando a incendiarse. Proporciona una interesante historia de cómo se desarrollaron las wavelets en los mundos matemático e ingeniería. Ella también hace un valeroso intento de proporcionar una explicación de lo que es la técnica wavelet. La Sra. Hubbard es una escritora científica, no una matemática, pero dominó una buena cantidad de cálculo básico y teoría del procesamiento de señales (que la admiro). Cuando escribió El mundo según Wavelets había pocos libros sobre wavelets y ningún material introductorio. Aunque admiro el esfuerzo heroico de Barbara Hubbards, sólo tuve una comprensión superficial de las wavelets después de leer El mundo según Wavelets. Existe una vasta literatura sobre las ondas y sus aplicaciones. Desde el punto de vista de un ingeniero de software (con sólo un año de cálculo universitario), el problema con la literatura wavelet es que ha sido escrito en gran parte por matemáticos, ya sea para otros matemáticos o para los estudiantes de matemáticas. No soy un miembro de ninguno de los grupos, así que quizás mi problema es que no tengo una comprensión fluida del lenguaje de las matemáticas. Ciertamente siento esto cuando leo artículos de revistas sobre las ondas. Sin embargo, he tratado de concentrarme en libros y artículos que son explícitamente introductorios y tutoriales. Incluso estos han demostrado ser difícil. El primer capítulo del libro Wavelets Made Easy de Yves Nievergelt comienza con una explicación de las wavelets de Haar (éstas son las wavelets utilizadas para generar el gráfico publicado en WIRED). Este capítulo tiene numerosos ejemplos y pude entender e implementar las wavelets de Haar a partir de este material (enlaces a mi código Java para las ondas Haar se pueden encontrar a continuación). Un capítulo posterior discute la transformada de la onda de Daubechies. Desafortunadamente, este capítulo de Wavelets Made Easy no parece ser tan bueno como el material de las wavelets de Haar. Parece haber un número de errores en este capítulo y la implementación del algoritmo descrito por Nievergelt no da lugar a una transformación wavelet correcta. Entre otras cosas, los coeficientes wavelet para las ondas Daubechies parecen estar equivocados. Mi página web sobre la transformada wavelet Daubechies se puede encontrar aquí. El libro Ripples in Mathematics (ver las referencias al final de la página web) es una referencia mejor. Hay una vasta literatura sobre las ondas. Esto incluye miles de artículos de revistas y muchos libros. Los libros sobre wavelets van desde trabajos relativamente introductorios como Nievergelts Wavelets Made Easy (que todavía no es una lectura ligera) a libros que son accesibles sólo a estudiantes graduados en matemáticas. También hay una gran cantidad de material wavelet en la Web. Esto incluye una serie de tutoriales (consulte la referencia basada en Web más abajo). Dada la vasta literatura sobre las ondas, no hay necesidad de otro tutorial. Pero podría valer la pena resumir mi visión de las wavelets cuando se aplican a señales 1-D o series temporales (una imagen es datos bidimensionales). Una serie de tiempo es simplemente una muestra de una señal o un registro de algo, como temperatura, nivel de agua o datos de mercado (como el precio de cierre de la acción). Wavelets permiten una serie de tiempo para ser visto en múltiples resoluciones. Cada resolución refleja una frecuencia diferente. La técnica wavelet toma promedios y diferencias de una señal, rompiendo la señal en el espectro. Todos los algoritmos wavelet que estoy familiarizado con el trabajo en la serie de tiempo una potencia de dos valores (por ejemplo, 64, 128, 256.). Cada paso de la transformada wavelet produce dos conjuntos de valores: un conjunto de promedios y un conjunto de diferencias (las diferencias se denominan coeficientes wavelet). Cada paso produce un conjunto de promedios y coeficientes que es la mitad del tamaño de los datos de entrada. Por ejemplo, si la serie de tiempo contiene 256 elementos, el primer paso producirá 128 promedios y 128 coeficientes. Los promedios se convierten entonces en la entrada para el siguiente paso (por ejemplo, 128 medias resultando en un nuevo conjunto de 64 promedios y 64 coeficientes). Esto continúa hasta que se calcula un promedio y un coeficiente (por ejemplo, 2 0). El promedio y la diferencia de la serie de tiempo se hace a través de una ventana de valores. La mayoría de los algoritmos wavelet calculan cada nuevo promedio y diferencia al desplazar esta ventana sobre los datos de entrada. Por ejemplo, si la serie temporal de entrada contiene 256 valores, la ventana se desplazará por dos elementos, 128 veces, en el cálculo de los promedios y las diferencias. El siguiente paso del cálculo utiliza el conjunto anterior de promedios, cambiando también la ventana por dos elementos. Esto tiene el efecto de promediar a través de una ventana de cuatro elementos. Lógicamente, la ventana aumenta en un factor de dos cada vez. En la literatura wavelet este árbol algoritmo recursivo estructurado se conoce como un algoritmo piramidal. El poder del espectro de dos coeficientes (diferencia) generado por un cálculo wavelet refleja el cambio en la serie temporal en varias resoluciones. La primera banda de coeficientes generada refleja los cambios de frecuencia más altos. Cada banda posterior refleja los cambios en las frecuencias bajas y bajas. Hay un número infinito de funciones base de wavelets. Las funciones más complejas (como las wavelets de Daubechies) producen promedios y diferencias que se superponen y que proporcionan un mejor promedio que la wavelet de Haar a resoluciones más bajas. Sin embargo, estos algoritmos son más complicados. Cada campo de especialidad desarrolla su propio sub-lenguaje. Esto es ciertamente cierto de wavelets. He enumerado algunas definiciones aquí que, si hubiera entendido su significado me hubiera ayudado en mis vagabundeos a través de la literatura wavelet. Función que resulta en un conjunto de diferencias de alta frecuencia, o coeficientes wavelet. Al elevar los términos del esquema, la wavelet calcula la diferencia entre una predicción y un valor real. Si tenemos una muestra de datos s i. S i1. S i2. Las ecuaciones de la wavelet de Haar son Donde c i es el coeficiente wavelet. El esquema de elevación wavelet utiliza una expresión ligeramente diferente para la onda Haar: La función de escala produce una versión más suave del conjunto de datos, que es la mitad del tamaño del conjunto de datos de entrada. Los algoritmos wavelet son recursivos y los datos suavizados se convierten en la entrada para el siguiente paso de la transformada wavelet. La función de escala de onda de Haar es donde a i es un valor suavizado. La transformación de Haar preserva el promedio en los valores suavizados. Esto no es cierto para todas las transformaciones wavelet. Filtro de paso alto En términos de procesamiento de señal digital (DSP), la función wavelet es un filtro de paso alto. Un filtro de paso alto permite que los componentes de alta frecuencia de una señal a través de la supresión de los componentes de baja frecuencia. Por ejemplo, las diferencias que se capturan por la función de onda Haar representan un cambio de alta frecuencia entre un valor impar y un valor par. Filtro de paso bajo En términos de procesamiento de señal digital (DSP), la función de escala es un filtro de paso bajo. Un filtro de paso bajo suprime los componentes de alta frecuencia de una señal y permite que los componentes de baja frecuencia a través de. La función de escalado Haar calcula el promedio de un elemento par y un elemento impar, lo que da como resultado una señal de paso bajo más suave. Transformación Ortogonal (o Orthonormal) La Transformación Ortonormal (a. k.a. ortogonal) en los Métodos Wavelet para el Análisis de la Serie de Tiempo por Percival y Walden, Cambridge University Press, 2000, Chaper 3, sección 3.1, es uno de los mejores que he visto. He citado esto a continuación: Transformaciones ortonormales son de interst porque pueden ser utilizados para volver a expresar una serie de tiempo de tal manera que podemos reconstruir fácilmente la serie de su transformación. En un sentido suelto, la información en la transformación es, por lo tanto, equivalente a la información es la serie original para decirlo de otra manera, la serie y su transformación pueden considerarse dos representaciones de la misma entidad matemática. En términos de transformaciones wavelet esto significa que la serie temporal original puede ser reconstruida exactamente a partir de la media de la serie temporal y los coeficientes generados por una transformada wavelet ortogonal (ortonormal). Esto también se conoce como de-ruido. Los algoritmos de estimación de señales intentan caracterizar partes de la serie temporal y eliminar aquellas que caen en un modelo particular de ruido. Estas páginas Web publican un código fuente Java muy documentado para la transformación de la wavelet Haar. Libros como Wavelets Made Easy explican algunas de las matemáticas detrás de la transformación wavelet. I have found, however, that the implemation of this code can be at least as difficult as understanding the wavelet equations. For example, the in-place Haar wavelet transform produces wavelet coefficients in a butterfly pattern in the original data array. The Java source published here includes code to reorder the butterfly into coefficient spectrums which are more useful when it comes to analyzing the data. Although this code is not large, it took me most of a Saturday to implement the code to reorder the butterfly data pattern. The wavelet Lifting Scheme, developed by Wim Sweldens and others provides a simpler way to look as many wavelet algorithms. I started to work on Lifting Scheme wavelet implementations after I had written this web page and developed the software. The Haar wavelet code is much simpler when expressed in the lifting scheme. See my web page The Wavelet Lifting Scheme. The link to the Java source download Web page is below. There are a variety of wavelet analysis algorithms. Different wavelet algorithms are appplied depending on the nature of the data analyzed. The Haar wavelet, which is used here is very fast and works well for the financial time series (e. g. the close price for a stock). Financial time series are non-stationary (to use a signal processing term). This means that even within a window, financial time series cannot be described well by a combination of sin and cos terms. Nor are financial time series cyclical in a predictable fashion (unless you believe in Elliot waves ). Financial time series lend themselves to Haar wavelet analysis since graphs of financial time series tend to jagged, without a lot of smooth detail. For example, the graph below shows the daily close price for Applied Materials over a period of about two years. Daily close price for Applied Materials (symbol: AMAT), 12/18/97 to 12/30/99. The Haar wavelet algorithms I have implemented work on data that consists of samples that are a power of two. In this case there are 512 samples. There are a wide variety of popular wavelet algorithms, including Daubechies wavelets, Mexican Hat wavelets and Morlet wavelets. These wavelet algorithms have the advantage of better resolution for smoothly changing time series. But they have the disadvantage of being more expensive to calculate than the Haar wavelets. The higer resolution provided by these wavlets is not worth the cost for financial time series, which are characterized by jagged transitions. The Haar wavelet algorithms published here are applied to time series where the number of samples is a power of two (e. g. 2, 4, 8, 16, 32, 64. ) The Haar wavelet uses a rectangular window to sample the time series. The first pass over the time series uses a window width of two. The window width is doubled at each step until the window encompasses the entire time series. Each pass over the time series generates a new time series and a set of coefficients. The new time series is the average of the previous time series over the sampling window. The coefficients represent the average change in the sample window. For example, if we have a time series consisting of the values v 0 . v 1 . v n . a new time series, with half as many points is calculated by averaging the points in the window. If it is the first pass over the time series, the window width will be two, so two points will be averaged: The 3-D surface below graphs nine wavelet spectrums generated from the 512 point AMAT close price time series. The x-axis shows the sample number, the y-axis shows the average value at that point and the z-axis shows log 2 of the window width. The wavelet coefficients are calcalculated along with the new average time series values. The coefficients represent the average change over the window. If the windows width is two this would be: The graph below shows the coefficient spectrums. As before the z-axis represents the log 2 of the window width. The y-axis represents the time series change over the window width. Somewhat counter intutitively, the negative values mean that the time series is moving upward Positive values mean the the time series is going down, since v i is greater than v i1 . Note that the high frequency coefficient spectrum (log 2 (windowWidth) 1) reflects the noisiest part of the time series. Here the change between values fluctuates around zero. Plot of the Haar coefficient spectrum. The surface plots the highest frequency spectrum in the front and the lowest frequency spectrum in the back. Note that the highest frequency spectrum contains most of the noise. The wavelet transform allows some or all of a given spectrum to be removed by setting the coefficients to zero. The signal can then be rebuilt using the inverse wavelet transform. Plots of the AMAT close price time series with various spectrum filtered out are shown here. Each spectrum that makes up a time series can be examined independently. A noise filter can be applied to each spectrum removing the coefficients that are classified as noise by setting the coefficients to zero. This web page shows a histogram analysis of the three highest frequency spectrum of the AMAT close price. The result of a filter that removes the points that fall within a gaussian curve in each spectrum is also shown. The gaussian curve has a mean and standard deviation of the coefficients in that spectrum. Another way to remove noise is to use thresholding. My web page outlining one thresholding algorithm can be found here. How do Haar wavelet filters compare to simple filters, like windowed mean and median filters A plot of the AMAT time series, filtered with a median filter (which in this case is virtually identical to a mean filter) is shown here here. These filters can be compared to the spectrum filters (where a given wavelet coefficient spectrum is filered out) here.. Whether a wavelet filter is better than a windowed mean filter depends on the application. The wavelet filter allows specific parts of the spectrum to be filtered. For example, the entire high frequency spectrum can be removed. Or selected parts of the spectrum can be removed, as is done with the gaussian noise filter. The power of Haar wavelet filters is that they can be efficiently calculated and they provide a lot of flexibility. They can potentially leave more detail in the time series, compared to the mean or median filter. To the extent that this detail is useful for an application, the wavelet filter is a better choice. The Haar wavelet transform has a number of advantages: It is conceptually simple. It is fast. It is memory efficient, since it can be calculated in place without a temporary array. It is exactly reversible without the edge effects that are a problem with other wavelet trasforms. The Haar transform also has limitations, which can be a problem for some applications. In generating each set of averages for the next level and each set of coefficients, the Haar transform performs an average and difference on a pair of values. Then the algorithm shifts over by two values and calculates another average and difference on the next pair. The high frequency coefficient spectrum should reflect all high frequency changes. The Haar window is only two elements wide. If a big change takes place from an even value to an odd value, the change will not be reflected in the high frequency coefficients. For example, in the 64 element time series graphed below, there is a large drop between elements 16 and 17, and elements 44 and 45. Since these are high frequency changes, we might expect to see them reflected in the high frequency coefficients. However, in the case of the Haar wavelet transform the high frequency coefficients miss these changes, since they are on even to odd elements. The surface below shows three coefficient spectrum: 32, 16 and 8 (where the 32 element coefficient spectrum is the highest frequency). The high frequency spectrum is plotted on the leading edge of the surface. the lowest frequency spectrum (8) is the far edge of the surface. Note that both large magnitude changes are missing from the high frequency spectrum (32). The first change is picked up in the next spectrum (16) and the second change is picked up in the last spectrum in the graph (8). Many other wavelet algorithms, like the Daubechies wavelet algorithm, use overlapping windows, so the high frequency spectrum reflects all changes in the time series. Like the Haar algorithm, Daubechies shifts by two elements at each step. However, the average and difference are calculated over four elements, so there are no holes. The graph below shows the high frequency coefficient spectrum calculated from the same 64 element time series, but with the Daubechies D4 wavelet algorithm. Because of the overlapping averages and differences the change is reflected in this spectrum. The 32, 16 and 8 coefficient spectrums, calculated with the Daubechies D4 wavelet algorithm, are shown below as a surface. Note that the change in the time series is reflected in all three coefficient spectrum. Wavelet algorithms are naturally parallel. For example, if enough processing elements exist, the wavelet transform for a particular spectrum can be calculated in one step by assigning a processor for every two points. The parallelism in the wavelet algorithm makes it attractive for hardware implementation. The Web page for downloading the Haar wavelet source code can be found here. This Java code is extensively documented and this web page includes a link to the Javadoc generated documentation. A simpler version of the Haar wavelet algorithm can be found via my web page The Wavelet Lifting Scheme. The plots above are generated with gnuplot for Windows NT. See my web page of Gnuplot links here. I am only marginally statisified with gnuplot. The software is easy to use and the Windows NT version comes with a nice GUI and a nice help system. However, when it comes to 3-D plots, the software leaves some things to be desired. The hidden line removal consumes vast amounts of virtual memory. When I tried to plot one of the coefficients surfaces with the x and z axes switched, it ran out of memory on a Windows NT system with 256K of virtual memory. Also, the surface would be much easier to understand if it could be colored with a spectrum. If you know of a better 3D plotting package that runs on Windows NT, please drop me a note. I have also had a hard time getting gnuplot to generate 2-D plots with multiple lines that have different colors. I have succeeded in doing this only when the data for each line was in a separate file, which can be awkward. I was sent the reference to Root by a physicist, Costas A. Root is a data analysis framework that is targeted at the massive amounts of data generated by high energy physics experiments at CERN and elsewhere. Although Root leans heavily toward physics, it looks to me like Root would be useful in other areas. Some of the statistical techniques that are used to analyze results in experimental physics is also used in quantitive finance, for example. Root has different goals than gnuPlot. It is targeted at a much more challenging data analysis enviroment (terabytes of data). But it has a large learning curve and Im skeptical if it can be easily used by those who do not have a sophisticated command of C. In contrast gnuPlot is a simple plotting environment. So my search for a better plotting environment continues. I know that such environments are supported by Matlab and Mathematics, but these packages are too expensive for my limited software budget. References Ripples in Mathematics: the Discrete Wavelet Transform by Jensen and la Cour-Harbo, 2001 So far this is the best book Ive found on wavelets. I read this book after I had spent months reading many of the references that follow, so Im not sure how easy this book would be for someone with no previous exposure to wavelets. But I have yet to find any easy reference. Ripples in Mathematics covers Lifting Scheme wavelets which are easier to implement and understand. The book is written at a relatively introductory level and is aimed at engineers. The authors provide implementations for a number of wavelet algorithms. Ripples also covers the problem of applying wavelet algorithms like Daubechies D4 to finite data sets (e. g. they cover some solutions for the edge problems encountered for Daubechies wavelets). Wavelets and Filter Banks by Gilbert Strang and Truong Nguyen, Wellesley Cambridge Pr, 1996 A colleague recommend this book, although he could not load it to me since it is packed away in a box. Sadly this book is hard to find. I bought my copy via abebooks, used, from a book dealer in Australia. While I was waiting for the book I read a few of Gilbert Strangs journal articles. Gilbert Strang is one of the best writers Ive encountered in mathematics. I have only just started working through this book, but it looks like an excellent, although mathematical, book on wavelets. Wavelets Made Easy by Yves Nievergelt, Birkhauser, 1999 This books has two excellent chapters on Haar wavelets (Chapter 1 covers 1-D Haar wavelets and Chapter 2 covers 2-D wavelets). At least in his coverage of Haar wavelts, Prof. Nievergelt writes clearly and includes plenty of examples. The coverage of Haar wavelets uses only basic mathematics (e. g. algebra). Following the chapter on Haar wavelets there is a chapter on Daubechies wavelets. Daubechies wavelets are derived from a general class of wavelet transforms, which includes Haar wavelets. Daubechies wavelets are better for smoothly changing time series, but are probably overkill for financial time series. As Wavelets Made Easy progresses, it gets less easy. Following the chapter on Daubechies wavelets is a discussion of Fourier transforms. The later chapters delve into the mathematics behind wavelets. Prof. Nievergelt pretty much left me behind at the chapter on Fourier transforms. For an approachable discussion of Fourier transforms, see Understanding Digital Signal Processing by Richard G. Lyons (below). As Wavelets Made Easy progresses, it becomes less and less useful for wavelet algorithm implementation. In fact, while the mathematics Nievergelt uses to describe Daubechies wavelets is correct, the algorithm he describes to implement the Daubechies transform and inverse transform seems to be wrong. Wavelets Made Easy does not live up to the easy part of its title. Given this and the apparent errors in the Daubechies coverage, I am sorry to say that I cant recommend this book. Save your money and buy a copy of Ripples in Mathematics . Discovering Wavelets by Edward Aboufadel and Steven Schlicker At 125 pages, this is one of the most expensive wavelet books Ive purchased, on a per page basis. It sells on Amazon for 64.95 US. I bought it used for 42.50. If Discovering Wavelets provided a short, clear description of wavelets, the length would be a virtue, not a fault. Sadly this is not the case. Discovering Wavelets seems to be a book written for college students who have completed calculus and linear algebra. The book is heavy on theorms (which are incompletely explained) and very sort on useful explaination. I found the description of wavelets unnecessarily obscure. For example, Haar wavelets are described in terms of linear algebra. They can be much more simply described in terms of sums, differences and the so called pyramidal algorithm. While Discovering Wavelets covers some important material, its coverage is so obscure and cursory that I found the book useless. The book resembles a set of lecture notes and is of little use without the lecture (for their students sake I hope that Aboufadel and Schlicker are better teachers than writers). This is a book that I wish I had not purchased. Wavelet Methods for Time Series Analysis by Donald B. Percival and Andrew T. Walden, Cambridge University Press, 2000 Im not a mathematician and I dont play one on television. So this book is heavy going for me. Never the less, this is a good book. For someone with a better mathematical background this might be an excellent book. The authors provide a clear discussion of wavelets and a variety of time series analsysis techniques. Unlike some mathematicians, Percival and Walden actually coded up the wavelet algorithms and understand the difficulties of implementation. They compare various wavelet families for various applications and chose the simplest one (Haar) in some cases. One of the great benifits of Wavelet Methods for Time Series Analysis is that it provides a clear summary of a great deal of the recent research. But Percival and Walden put the research in an applied context. For example Donoho and Johnstone published an equation for wavelet noise reduction. I have been unable to find all of their papers on the Web and I have never understood how to calculate some of the terms in the equation in practice. I found this definition in Wavelet Methods . The World According to Wavelets: The Story of a Mathematical Technique in the Making by Barbara Burke Hubbard, A. K. Peters, 1996 This book provides an interesting history of the development of wavelets. This includes sketches of many of the people involved in pioneering the application and mathematical theory behind wavelets. Although Ms. Hubbard makes a heroic effort, I found the explaination of wavelets difficult to follow. The Cartoon Guide To Statistics by Larry Gonic and Woollcott Smith, Harper Collins I work with a number of mathematicians, so its a bit embarrassing to have this book on my disk. I never took statistics. In college everyone I knew who took statistics didnt like it. Since it was not required for my major (as calculus was), I did not take statistics. Ive come to understand how useful statistics is. I wanted to filter out Gaussian noise, so I needed to understand normal curves. Although the title is a bit embarrassing, The Cartoon Guide to Statistics provided a very rapid and readable introduction to statistics. Understanding Digital Signal Processing by Richard G. Lyons. This book is fantastic. Perhaps the best introductory book ever written on digital signal processing. It is the book on signal processing for software engineers like myself with tepid mathematical backgrounds. It provides the best coverage Ive ever seen on DFTs and FFTs. In fact, this book has inspired me to try FFTs on financial time series (an interesting experiment, but wavelets produce better results and Fourier transforms on non-stationary time series). See my web page A Notebook Compiled While Reading Understanding Digital Signal Processing by Lyons My web page on the wavelet Lifting Scheme. The Haar wavelet algorithm expressed using the wavelet Lifting Scheme is considerably simpler than the algorithm referenced above. The Lifting Scheme also allows Haar wavelet to be extended into a wavelet algorithms that have perfect reconstruction and have better multiscale resolution than Haar wavelets. Emil Mikulic has published a simple explaination of the Haar transform, for both 1-D and 2-D data. For those who find my explaination obscure, this might be a good resource. The Wavelet Tutorial . The Engineers Ultimate Guide to Wavelet Analysis, by Robi Polikar. The ultimate guide to wavelet analysis has yet to be written, at least for my purposes. But Prof. Polikars Wavelet Tutorial is excellent. When it comes to explaining Wavelets and Fourier transforms, this is one of the best overviews Ive seen. Prof. Polikar put a great deal of work into this tutorial and I am greateful for his effort. However, there was not sufficient detail in this tutorial to allow me to create my own wavelet and inverse wavelet tranform software. This Web page (which is also available in PDF) provides a nice overview of the theory behind wavelets. But as with Robi Polikars web page, its a big step from this material to a software implementation. Whether this Web page is really friendly depends on who your friends are. If you friends are calculus and taylor series, then this paper is for you. After working my way through a good part of Wavelets Made Easy this paper filled in some hole for me. But I would not have understood it if I had read it before Wavelets Made Easy . Wim Sweldens, who has published a lot of material on the Web (he is the editor of Wavelet Digest ) and elsewhere on Wavelets is a member of this group. An interesting site with lots of great links to other web resources. Lifting Scheme Wavelets Win Sweldens and Ingrid Daubechies invented a new wavelet technique known as the lifting scheme . Gabriel Fernandez has published an excellent bibliography on the lifting scheme wavelets which can be found here. This bibliography has a pointer to Wim Sweldens and Peter Schroders lifting scheme tutorial Building Your Own Wavelets at Home . Clemens Valens has written a tutorial on the fast lifting wavelet transform. This is a rather mathematically oriented tutorial. For many, Wim Sweldens paper Building Your Ownh Wavlets at Home may be easier to under stand (although I still found this paper heavy going). Gabriel Fernandez has developed LiftPack . The LiftPack Home Page publishes the LiftPack software. The bibliography is a sub-page of the LiftPack Home page. Wavelets in Computer Graphis One of the papers referenced in Gabriel Fernandezs lifting scheme bibliography is Wim Sweldens and Peter Schroders paper Building Your Own Wavelets at Home . This is part of a course on Wavelets in Computer Graphics given at SigGraph 1994, 1995 and 1996. The sigGraph course coverd an amazing amount of material. Building Your Own Wavelets at Home was apparently covered in a morning. There are a lot of mathematically gifted people in computer graphics. But even for these people, this looks like tough going for a morning. Ive spent hours reading and rereading this tutorial before I understood it enough to implement the polynomial interpolation wavelets that it discusses. D. Donoho De-Noising By Soft-Thresholding . IEEE Trans. on Information Theory, Vol 41, No. 3, pp. 613-627, 1995. D. Donoho Adapting to Unknown Smoothness via Wavelet Shrinkage . JASA. 1995. CalTech Multi-Resolution Modeling Group Publications The Wavelets in Computer Graphics page, referenced above, is one of the links from the CalTech Multi-resolution Modeling Group Publications web page. The wavelet publications referenced on this page concentrate on wavelet applications for computer graphics. This is yet another introductory tutorial by a mathematician. It gives a feeling for what you can do with wavelets, but there is not enough detail to understand the details of implementing wavelet code. Amara Graps web page provides some good basic introductory material on wavelets and some excellent links to other Web resources. There is also a link to the authors (Amara) IEEE Computational Sciences and Engineering article on wavelets. Wave from Ryerson Polytechnic University Computational Signals Analysis Group Wave is a C class library for wavelet and signal analysis. This library is provided in source form. I have not examined it in detail yet. Wavelet and signal processing algorithms are usually fairly simple (they consist of a relatively small amount of code). My experience has been that the implementation of the algorithms is not as time consuming as understanding the algorithms and how they can be applied. Since one of the best ways to understand the algorithms is to implement and apply them, Im not sure how much leverage Wave provides unless you already understand wavelet algorithms. Wavelet Compression Arrives by Peter Dyson, Seybold Reports, April 1998. This is an increasingly dated discussion on wavelet compression products, especially for images. The description of the compression products strengths and weaknesses is good, but the description of wavelets is poor. Prof. Zbigniew R. Struzik of Centrum voor Wiskunde en Informatica in the Netherlands has done some very interesting work with wavelets in a variety of areas, including data mining in finance. This web page has a link to Prof. Struziks publications (at the bottom of the Web page). Prof. Struziks work also shows some interesting connections between fractals and wavelets. Disclaimer This web page was written on nights and weekends, using my computer resources. This Web page does not necessarily reflect the views of my employer (at the time this web page was written). Nothing published here should be interpreted as a reflection on any techniques used by my employer (at that time). Ian Kaplan, July 2001 Revised: February 2004
No comments:
Post a Comment