Seminarios de GAA 2007

Lista de seminarios:


Título:     Variational Techniques Applied to Bayesian Inference
Ponente:     Daniel Hernández Lobato
Lugar:       Sala de grados
Fecha:       miércoles 24 de enero, 15:00h
Resumen:     Bayesian methods offer significant advantages over many 
             conventional techniques such as maximum likelihood. However, 
             their practicality has traditionally been limited by the 
             computational cost of implementing them, which has often 
             been done using Monte Carlo methods. In recent years, 
             however, the applicability of Bayesian methods has been 
             widely extended through the development of fast analytical 
             techniques such as variational inference. In this talk a 
             tutorial introduction to variational methods will be given 
             and their applicability in both supervised and unsupervised 
             learning domains will be demonstrated.
[Presentación]
Título:      Expectation Propagation for Approximate Bayesian Inference
Ponente:     Jose Miguel Hernández Lobato
Lugar:       Seminario B-351
Fecha:       jueves 8 de febrero a las 15:00h
Resumen:     Las técnicas Bayesianas proporcionan un potente marco 
             para realizar inferencia en el análisis de datos. Sin 
             embargo, su aplicabilidad se ve limitada debido al 
             elevado coste de su implementación. Recientemente han 
             aparecido algoritmos como Inferencia Variacional y 
             Expectation Propagation que posibilitan obtener 
             soluciones aproximadas en planteamientos Bayesianas  
             a un coste aceptable. En esta charla veremos una 
             introducción a Expectation Propagation así como su 
             aplicación a la máquina de Bayes, un equivalente 
             completamente Bayesiano de la máquina de vectores 
             soporte.
[Presentación]
Título:      Support Vector Machines and Kernel Perceptrons
Ponente:     Daniel García Frank
Lugar:       Seminario B-351
Fecha:       jueves 1 de marzo a las 15:00h
Resumen:     Las Máquinas de Soporte vectorial (Support Vector Machines, SVM), al  
             igual que los perceptrones multicapa o las Radial-basis Function  
             Networks (redes RBF), son una categoría de redes feed-forward  
             universales que pueden ser usadas para clasificación de patrones y  
             regresión no-lineal. Éstas son máquinas lineales cuyo objetivo  
             principal consiste en construir un hiperplano como superficie de  
             decisión tal que se maximiza el margen de separación entre ejemplos  
             con distinta clase. Uno de los problemas que presentan las SVM resulta  
             que es necesario resolver un problema de optimización cuadrática para  
             obtener el clasificador óptimo, lo cual puede suponer un inconveniente  
             a la hora de usarlas en problemas reales.

             Por otra parte, utilizando perceptrones simples bajo unas determinadas  
             condiciones, es posible construir clasificadores que también maximizan  
             el margen de separación sin tener que resolver problemas tan complejos  
             como los de las SVM.
             
             En esta charla se mostrará una introducción a las SVM, así como a  
             otros métodos de clasificación basados en perceptrones que también  
             maximizan el margen de separación entre clases, tales cómo el  
             algoritmo Schlesinger-Kozinec (S-K) o el algoritmo Convex Perceptrons.
[Presentación]
Título:      Transcription Factor Identification: a Bayesian Approach
Ponente:     Jose Miguel Hernández Lobato
Lugar:       Seminario B-351
Fecha:       jueves 15 de marzo a las 15:00h
Resumen:     We propose a Bayesian method to identify genes that are likely 
             to be transcription factors given some data. The data consists
             in consecutive measurements of the level of expression of the 
             genes, obtained by microarray experiments. We show how our 
             method performs well on artificially generated data and finally 
             we test it on real data.
[Presentación]