Comunicaciones

Resumen

Sesión Estadística, Ciencia de Datos e Inteligencia Artificial

Jueves 21 de septiembre

Tarde - Lugar: Anfiteatro P

HorarioTítuloExpositor/a
15:00 ~ 15:20 Reducción Suficiente de Dimensiones y Predicción no Paramétrica para Datos Espaciales: Métodos y Aplicaciones Pamela Llop
15:20 ~ 15:40 Localización de fallas y ubicación de medidores en redes de distribución eléctricas Iván Degano
15:40 ~ 16:00 Una Profundidad para Retro-trayectorias Lucas Fernández Piana
16:00 ~ 16:20 LASSO.FREC: un modelo de selección de variables basado en las soluciones de LASSO en toda la grilla Verónica Moreno
16:50 ~ 17:10 Aprendizaje de geodésicas en superficies desconocidas: teoría, métodos y aplicaciones Pablo Groisman
17:10 ~ 17:30 Estimación para el Modelo de Regresión ZIP Parcialmente Lineal: una Propuesta Robusta María José Llop
17:30 ~ 17:50 Estimación de parámetros de Hamiltonianos de sistemas cuánticos a partir de mediciones locales Diego Sebastian Acosta Coden
17:50 ~ 18:10 Predicción espacial con covariables: una extensión semiparamétrica del cokriging Mariel Guadalupe Lovatto

Charlas invitadas


Jueves 21 de septiembre, 15:00 ~ 15:20

Reducción Suficiente de Dimensiones y Predicción no Paramétrica para Datos Espaciales: Métodos y Aplicaciones

Pamela Llop

UNL, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

En el presente trabajo presentamos diferentes extensiones del método de reducción suficiente de dimensiones para datos espacialmente correlacionados. Más precisamente, en base al modelo de regresión inversa utilizado para encontrar la reducción del espacio de predictores, planteamos modelos del tipo SEM (errores correlacionados), SAR (covariables correlacionadas), SARAR (mezcla de SEM y SAR) y el modelo de Covarianza Separable (al que llamamos SSCM). De estos modelos se derivan los estimadores de máxima verosimilitud para la respectivas reducciones, con sus correspondientes propiedades asintóticas. Al mismo tiempo, se presentan dos predictores no paramétricos para datos espaciales que, en conjunción con las reducciones propuestas, constituyen una alternativa flexible y parsimoniosa para la predicción de una variable de interés espacial en un contexto de alta dimensión. La metodologías propuestas se evalúan por medio de simulaciones y aplicaciones con datos reales.

Ver PDF


Jueves 21 de septiembre, 16:50 ~ 17:10

Aprendizaje de geodésicas en superficies desconocidas: teoría, métodos y aplicaciones

Pablo Groisman

UBA, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Sea $Q_n = \{x_1, \dots, x_n\} $ un conjunto de puntos i.i.d. con densidad común f soportada en una superficie. Buscamos definir una distancia en $Q_n $ que capture tanto la geometría intrínseca de la superficie como la función de densidad f. Propondremos una posible solución $d_n$ y estudiaremos el comportamiento asintótico del espacio métrico $(Q_n, d_n) $ cuando $n$ tiende a infinito. La distancia $ d_n $ resulta valiosa en tareas como clustering, clasificación, reducción de dimensión, regresión no-paramétrica y en la determinación de la topología de la superficie, así como también en problemas de transporte óptimo en variedades y validación de modelos dados por sistemas dinámicos caóticos. Las demostraciones involucran el estudio de geodésicas en un modelo de percolación de primera pasada no-homogéneo.

Ver PDF

 

 

Resúmenes


Jueves 21 de septiembre, 15:00 ~ 15:20

Reducción Suficiente de Dimensiones y Predicción no Paramétrica para Datos Espaciales: Métodos y Aplicaciones

Pamela Llop

UNL, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

En el presente trabajo presentamos diferentes extensiones del método de reducción suficiente de dimensiones para datos espacialmente correlacionados. Más precisamente, en base al modelo de regresión inversa utilizado para encontrar la reducción del espacio de predictores, planteamos modelos del tipo SEM (errores correlacionados), SAR (covariables correlacionadas), SARAR (mezcla de SEM y SAR) y el modelo de Covarianza Separable (al que llamamos SSCM). De estos modelos se derivan los estimadores de máxima verosimilitud para la respectivas reducciones, con sus correspondientes propiedades asintóticas. Al mismo tiempo, se presentan dos predictores no paramétricos para datos espaciales que, en conjunción con las reducciones propuestas, constituyen una alternativa flexible y parsimoniosa para la predicción de una variable de interés espacial en un contexto de alta dimensión. La metodologías propuestas se evalúan por medio de simulaciones y aplicaciones con datos reales.

Ver PDF


Jueves 21 de septiembre, 15:20 ~ 15:40

Localización de fallas y ubicación de medidores en redes de distribución eléctricas

Iván Degano

Universidad Nacional de Mar del Plata, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Un problema de gran interés para las companías distribuidoras de energía eléctrica es garantizar un servicio ininterrumpido a sus usuarios, evitado fallas en los extensos sistemas de distribución que controlan. Por lo tanto, el monitoreo de las redes y la identificación de las fallas en estos sistema se vuelven esenciales. Este trabajo se enfoca en identificar la ocurrencia de una falla a partir de un pequeño número de mediciones de bajo costo en un sistema de distribución de energía por medio de técnicas de aprendizaje automático.

La determinación de las ubicaciones de los sensores se basa en un novedoso método de selección de características denominado LassoNet, el cual consiste en seleccionar las características que dan más información al mismo tiempo que se entrena una red neuronal artificial. Con este método podemos determinar las mejores ubicaciones para tomar medidas de voltaje y corriente para hallar la sección donde se encuentra la falla. Esto se traduce además en un conjunto de datos más pequeño. Este nuevo conjunto se utiliza luego como entrada a una red neuronal profunda para estimar la locación de la falla dentro de la sección .Finalmente, para evaluar el rendimiento del modelo en términs de exactitud y precisión simulamos fallas varias redes de distribución de prueba.

Trabajo en conjunto con: Leandro Fiaschetti (Universidad Nacional del Cetro de la Provincia de Buenos Aires, Argentina) y Pablo Lotito (Universidad Nacional del Cetro de la Provincia de Buenos Aires, Argentina).

Ver PDF


Jueves 21 de septiembre, 15:40 ~ 16:00

Una Profundidad para Retro-trayectorias

Lucas Fernández Piana

Universidad de San Andrés, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Las trayectorias con origen común o retro-trayectorias aparecen frecuentemente en problemas de meteorología y ecología donde se involcra el origen o destino de particulas que son arrastradas por el viento. En la naturaleza, existen conjuntos de datos que exhiben estas características como por ejemplo: la propagación de ceniza volcánica después de una erupción, la propagación de un foco de incendio, el estudio de áreas que se verán afectadas por radiación en una tragedia nuclear, etc.

El objetivo de este trabajo es poder hacer una descripción precisa de estos datasets. Para ello, las medidas de profundidad son un candidato ideal, pues son técnicas no paramétricas que prácticamente no hacen suposiciones sobre la distribución de los datos y permiten caracterizarlos fielmente; permitiendo tener una caracterización de las trayectorias centrales así como de aquellas que son atípicas. Aunque las trayectorias que estamos estudiando son datos funcionales, las definiciones existentes no son apropiadas para este problema, dado que el principal interés radica en el recorrido de las partículas sin tener en cuenta el tiempo en que se encuentran. Por otra parte, el hecho de que converjan en el mismo punto final implica que sus caminos están muy entrecruzados en la última etapa del recorrido.

Nuestra propuesta se basa en construir una profundidad integrada que se ajuste a la geometría de los datos, donde la variable de integración es el radio de los círculos concéntricos alrededor del punto común de las trayectorias. Además, definimos una profundidad local para datos en el circunferencia unitaria que será el ingrediente principal de la versión integrada. Se prueban las propiedades teóricas clásicas para ambas profundidades. Finalmente, presentamos un algoritmo "data-driven" altamente eficiente para los cálculos que permite aplicarla ambas profundidades a grandes conjuntos de datos.

Trabajo en conjunto con: Marcela Svarc (Universidad de San Andrés, Argentina).

Referencias

[1] Datos Funcionales

[2] Retro-trayectorias

[3] Profundidades

Ver PDF


Jueves 21 de septiembre, 16:00 ~ 16:20

LASSO.FREC: un modelo de selección de variables basado en las soluciones de LASSO en toda la grilla

Verónica Moreno

Universidad Nacional de Tres de Febrero y Universidad de San Andrés, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Lo más usual a la hora de descorrelacionar variables y reducir dimensión es usar el método LASSO, que consiste en minimizar \[ R(\beta_0,\beta)=\frac1{2n}\sum_{i=1}^{n} (y_i-\beta_0-X_i\beta^T)^2+ \lambda \sum_{j=1}^{p}|\beta_j|. \] La solución de este problema es esparza por lo cual para seleccionar variables se seleccionan aquellas con un valor de $\beta$ igual a cero. Este método fue planteado por primera vez por [3], pero una solución numérica escalable se presentó recién en [1]. Muchas variantes de este modelo surgieron cómo métodos de selección de variables, para un estudio completo sobre todas las variantes de LASSO ver [2]. Hay numerosos trabajos que estudian la elección del parámetro de penalización $\lambda$. Lo mas usual es considerar una grilla de valores de $\lambda$ y quedarme con el que minimiza el error cuadrático medio al considerar los coeficientes de LASSO en un test data usando la técnica de cross validation (5 folds es lo mas usual). Esta técnica de selección de variables se conoce como LASSO.MIN y es conocida por tener mucho poder predictivo, pero es muy conservadora a la hora de seleccionar las variables ya que suele tomar las verdaderas y muchas otras que no. En este trabajo proponemos un algoritmo de selección de variables llamado LASSO.FREC basado en resolver LASSO en una grilla de valores de $\lambda$. Lo que proponemos es considerar la frecuencia con que se selecciona cada variable teniendo en cuenta las soluciones de todos los $\lambda$'s. Vamos a seleccionar las variables que tienen mayor frecuencia.

El algoritmo LASSO.FREC tiene los siguientes pasos:

1- Elegir un threshold $\tau$, este es un parámetro del algoritmo que tiene que ser elegido por el usuario.

2- Seleccionar una grilla de valores para $\lambda$.

3- Para cada valor de $\lambda$ en la grilla considero los valores $(\beta_0,\beta)^{\lambda}$ que resuelven LASSO y armo el vector que me indica que variables selecciono con este $\lambda$ de la siguiente manera: $S^{\lambda}\in \mathbb{R}^p $ tal que $S^{\lambda}_j =1$ si seleccioné la variable $j$ (o sea si $\beta_j$ es distinto de cero) y $S^{\lambda}_j =0$ en otro caso.

4- Armo un vector de frecuencias: $\text{Frec} \in \mathbb{R}^p$ con $\text{Frec}_j = \frac{1}{L} \sum_{\lambda}S^{\lambda}_j$, donde $L$ es la cantidad de puntos que tiene la grilla.

5-Seleccionar las variables $j$ que cumplan $\text{Frec}_j \geq \tau$.

Para un análisis de este algoritmo se seleccionaron los mismos tres escenarios que en [2] con el objetivo de poder comparar con otras variantes de LASSO. Para cada uno de estos tres escenarios, vamos a mostrar el gráfico de las frecuencias ordenadas de mayor a menor, con un color van a estar las verdaderas y con otros las falsas. Se puede observar que las verdaderas aparecen primeras y que las falsas al final, en algunos casos observando un salto entre estos dos grupos (verdaderas y falsas). En el escenario en que tenemos correlaciones muy marcadas, el algoritmo muy pocas veces confunde una variable verdadera con una de las falsas. Se realizó una simulación de monte carlo con 1000 simulaciones, promediando la cantidad de variables verdaderas y falsas que toma en cada selección. Se realizo una comparación de LASSO.FREC con diferentes thresholds (0.7, 0.8 y 0.9) y LASSO.MIN . Como resultado de esta comparación podemos ver que LASSO.MIN siempre selecciona las verdaderas pero selecciona muchas mas falsas que LASSO.FREC mientras que LASSO.FREC selecciona muy pocas de las falsas, y muy pocas veces pierde una variable verdadera. Realizamos esta comparación para diferentes tamaños de muestras, observando que LASSO.FREC mejora en muchos escenarios cuando el tamaño de la muestra es mas grande. Por último mostramos un ejemplo con datos reales, en donde comparamos las variables seleccionadas por LASSO.FREC y LASSO.MIN, y con estas variables miramos el mse en un test data. Como conclusión se ve que seleccionando un threshold $\tau$ adecuado se puede lograr muchas menos variables que LASSO.MIN y mayor poder predictivo.

Trabajo en conjunto con: Lucas Fernández Piana (Universidad de San Andrés, Argentina)..

Referencias

[1] Friedman, J., Hastie, T., & Tibshirani, R. (2010). Regularization paths for generalized linear models via coordinate descent. Journal of statistical software, 33(1), 1.

[2] Freijeiro‐González, L., Febrero‐Bande, M., & González‐Manteiga, W. (2022). A critical review of LASSO and its derivatives for variable selection under dependence among covariates. International Statistical Review, 90(1), 118-145.

[3] Tibshirani, R. (1996). Regression shrinkage & selection via the LASSO. J. R. Stat. Soc. B. Methodol., 58(1):267–288.

Ver PDF


Jueves 21 de septiembre, 16:50 ~ 17:10

Aprendizaje de geodésicas en superficies desconocidas: teoría, métodos y aplicaciones

Pablo Groisman

UBA, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Sea $Q_n = \{x_1, \dots, x_n\} $ un conjunto de puntos i.i.d. con densidad común f soportada en una superficie. Buscamos definir una distancia en $Q_n $ que capture tanto la geometría intrínseca de la superficie como la función de densidad f. Propondremos una posible solución $d_n$ y estudiaremos el comportamiento asintótico del espacio métrico $(Q_n, d_n) $ cuando $n$ tiende a infinito. La distancia $ d_n $ resulta valiosa en tareas como clustering, clasificación, reducción de dimensión, regresión no-paramétrica y en la determinación de la topología de la superficie, así como también en problemas de transporte óptimo en variedades y validación de modelos dados por sistemas dinámicos caóticos. Las demostraciones involucran el estudio de geodésicas en un modelo de percolación de primera pasada no-homogéneo.

Ver PDF


Jueves 21 de septiembre, 17:10 ~ 17:30

Estimación para el Modelo de Regresión ZIP Parcialmente Lineal: una Propuesta Robusta

María José Llop

Facultad de Ingeniería Química, Universidad Nacional del Litoral, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

En diversas áreas del conocimiento surgen datos de conteo que pueden ser modelados mediante distribuciones discretas como la Poisson o la Binomial Negativa, sin embargo, en determinadas situaciones es frecuente que los datos exhiban una gran proporción de ceros y, por lo tanto, no permitan suponer que la distribución subyacente sea alguna de las mencionadas. El modelo de regresión de Poisson inflado con ceros (ZIP, por sus siglas en inglés) es un caso particular de los modelos lineales generalizados (MLG). El mismo utiliza la distribución binomial para modelar el hecho de que una observación provenga del proceso de ceros estructurales (con probabilidad $\pi$), o bien, que provenga de una distribución de Poisson de parámetro $\lambda$ (con probabilidad $1-\pi$). La estimación de los parámetros de este modelo se puede realizar mediante el algoritmo EM, incluyendo variables auxiliares como si fueran observables y escribiendo la función de verosimilitud como la suma de componentes que se pueden optimizar por separado. Una desventaja de los estimadores basados en verosimilitud es que su función de influencia no es acotada y por consiguiente valores extremos tanto en la respuesta como en las covariables pueden afectar considerablemente a los estimadores. En ese contexto, estimadores robustos han sido desarrollados para el modelo de regresión ZIP, utilizando, por ejemplo, funciones de pérdida acotadas en lugar de la función de verosimilitud.

Una forma natural de dotar de mayor flexibilidad a los MLG es incorporar algunas variables predictoras de manera no paramétrica. Esto da lugar a los modelos parcialmente lineales generalizados (MPLG). En el campo de la estadística robusta, se han realizado propuestas para MPLG derivando estimadores robustos tanto para la componente lineal como para la no paramétrica. Estos estimadores involucran esencialmente funciones de pérdida acotadas, con ciertos pesos que permiten controlar el efecto de las variables predictoras sobre el estimador resultante.

En este trabajo se obtienen estimadores para el modelo de regresión ZIP parcialmente lineal combinando el algoritmo EM con una adaptación del procedimiento de tres pasos propuesto por [2] que permite estimar tanto la componente lineal como la componente no paramétrica. Este procedimiento se implementa utilizando la función de verosimilitud, así como funciones de pérdida robustas. En particular, para la estimación del parámetro de regresión y la componente no paramétrica asociados al proceso de Poisson se utiliza la pérdida bicuadrada de Tukey así como las que fueron propuestas por [3] y [4]. Además para el parámetro de regresión asociado a la distribución binomial se utiliza la pérdida propuesta por [1]. Finalmente, se compara el comportamiento y desempeño de los estimadores en diferentes escenarios de contaminación mediante estudios de simulación.

Trabajo en conjunto con: María José Llop, Andrea Bergesio y Anne-Françoise Yao.

Referencias

[1] Bianco, A.M. and Yohai, V.J. (1996). Robust Estimation in the Logistic Regression Model. In: Rieder, H. (eds) Robust Statistics, Data Analysis, and Computer Intensive Methods. Lecture Notes in Statistics, vol 109. Springer, New York, NY.

[2] Boente, G. and Rodriguez, D. (2010). Robust inference in generalized partially linear models. Computational Statistics and Data Analysis, 54(12):2942–2966.

[3] Muller, N. and Yohai, V. (2002). Robust estimates for arch processes. Journal of Time Series Analysis, 23(3):341–375.

[4] Valdora, V. and Yohai, V. (2014). Robust estimators for generalized linear models. Journal of Statistical Planning and Inference, 146:31–48.

Ver PDF


Jueves 21 de septiembre, 17:30 ~ 17:50

Estimación de parámetros de Hamiltonianos de sistemas cuánticos a partir de mediciones locales

Diego Sebastian Acosta Coden

Universidad Nacional del Nordeste, Instituto de Modelado e Innovación Tecnológica, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Consideramos el problema de identificar los parámetros de un Hamiltoniano de una cadena de espines usando redes neuronales recurrentes. El conjunto de datos esta compuesto por registros temporales de operadores locales de distintos subconjuntos de la cadena. Evaluamos la variabilidad de nuestras estimaciones, su robustez contra el ruido de medición y la capacidad de nuestro Hamiltoniano estimado para extrapolar la dinámica a tiempos no vistos durante el entrenamiento.

Trabajo en conjunto con: Alejandro Ferrón (Universidad Nacional del Nordeste, Instituto de Modelado e Innovación Tecnológica).

Referencias

[1] P.P. Mazza, D. Zietlow, F. Carollo, S. Andergassen, G. Martius and I. Lesanovsky, Machine learning time-local generators of open quantum dynamics, Physical Review Research 3, 023084 (2021)

[2] L. Che, C. Wei, Y. Huang, D. Zhao, S. Xue, X. Nie, J. Li, D. Lu, and T. Xin, Learning quantum Hamiltonians from single-qubit measurements, Physical Review Research 3, 023246 (2021)

Ver PDF


Jueves 21 de septiembre, 17:50 ~ 18:10

Predicción espacial con covariables: una extensión semiparamétrica del cokriging

Mariel Guadalupe Lovatto

Facultad de Ingeniería Química - UNL - CONICET, Santa Fe, Argentina   -   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

En el contexto de predicción espacial univariada, [1] proponen diferentes variantes no paramétricas del clásico método kriging, logrando con ello flexibilizar algunos supuestos restrictivos del mismo, como ser la estacionariedad e isotropía. Estas nuevas metodologías logran notables mejoras predictivas bajo escenarios de datos espaciales heterocedásticos y de covarianza combinada. En base a estos resultados, en el presente trabajo proponemos una extensión semiparamétrica del denominado cokriging; esto es, la versión del kriging con covariables ([2], [3], [4], [6], [7]). Con esto buscamos combinar la flexibilidad de los métodos no paramétricos y la eficiencia de los paramétricos. Más precisamente, para predecir el valor de la respuesta $y$ en un sitio no muestreado $\mathbf{s}_0 \in \mathbb{R}^d$, usamos las covariables modeladas de forma paramétrica y a la variable de interés (variable respuesta) medida en los sitios de la muestra $\tilde{\mathbf{s}} = \{\mathbf{s}_1, \ldots, \mathbf{s}_n\}$ la incluímos de forma no parmétrica. Con esto, la predicción del valor de $y$ en el nuevo sitio $\mathbf{s}_0$ vendrá dada por \[ \label{modeloespacialmuestralauto} \widehat y(\mathbf{s}_0) = \widehat E(y(\mathbf{s}_0) | \mathbf{x}(\mathbf{s}_0),\mathbf{y}) = \mathbf{x}^T(\mathbf{s}_0) \widehat{\boldsymbol{\beta}} + \widehat m(\mathbf{s}_0,\mathbf{y}), \] donde $\mathbf{x}(\mathbf{s}_0) \in \mathbb{R}^p $ es el vector de covariables medidas en $\mathbf{s}_0$. La propuesta radica en estimar las componentes de dicho modelo mediante una adaptación del método [5] al caso de datos espaciales. Además se combinan diferentes formas de estimación para el parámetro $\beta$ y la función $m$. Los resultados se evalúan mediante estudios de simulación, comparando los errores de predicción obtenidos mediante el modelo propuesto y los obtenidos mediante el usual cokriging paramétrico.

Trabajo en conjunto con: Rodrigo García Arancibia (Instituto de Economía Aplicada del Litoral - FCE - UNL- CONICET) y Pamela LLop (Facultad de Ingeniería Química - UNL - CONICET).

Referencias

[1] Arancibia, R. G., Llop, P., and Lovatto, M. (2023). Nonparametric prediction for univariate spatial data: Methods and applications. Papers in Regional Science, 102(3):635–672.

[2] Cressie, N. (1993). Statistics for Spatial Data. John Wiley and Sons, Inc.

[3] Gelfand, A., Fuentes, M., Guttorp, P., and Diggle, P. (2010). Handbook of Spatial Statistics. Chapman & Hall/CRC Handbooks of Modern Statistical Methods. Taylor & Francis.

[4] Montero, J.-M., Fern ́andez-Avil ́es, G., and Mateu, J. (2015). Spatial and Spatio- Temporal Geostatistical Modeling and Kriging. John Wiley and Sons, Ltd.

[5] Speckman, P. (1988). Kernel smoothing in partial linear models. Journal of the Royal Statistical Society: Series B (Methodological), 50(3):413–436.

[6] Wackernagel, H. (2006). Geostatistics. American Cancer Society.

[7] Webster, R. and Oliver, M. (2007). Geostatistics for Environmental Scien- tists. Wiley, 2th edition.

Ver PDF