Ciclo di conferenze Mathlab a.a. 2020-21
(conferenze di carattere generale)
In this talk we will present rigorous evidence for the good performance of such algorithms, and our results will take the form of refined and generalized "Cheeger inequalities", relating the value of Laplacian eigenvalues to combinatorial properties of the graph.
The techniques that we developed to prove our results have been used to resolve a nearly 40+ year old conjecture on infinite-dimensional Markov processes. A number of interesting problems remains open.
epidemics. Using a SIRD model calibrated on COVID19-related deaths, we
describe the dynamics of the second wave of SARS-CoV-2 epidemic in Italy
at regional level. We estimate the time-varying reproductive number,
R0(t), modelled as a natural cubic spline, and quantify the number of
infections, included their submerged portion, under different infection
fatality rate (IFR) scenarios. Comparing the observed number of
infections with its prediction under different scenarios, we try to
define a possible upper bound for IFR. The assumptions underlying the
model are discussed.
From parametric to quiver machines: 18 maggio alle 17 - Pietro Vertechi (VEOS - Digital)
Abstract. Data scientists often build artificial neural architectures for applications by either modifying existing models or iterative trial and error. The parametric machines framework offers, by construction, the possibility to sculpt architectures automatically during training. We will showcase this technique on three applications, showing how parametric machines are particularly efficient (outperforming deep neural networks) on small datasets (i.e., datasets with approximately 100 training samples). After that, we will move back to a more topology-oriented formalism describing a special case of parametric machines named quiver machines, which encode both symmetry and architecture as a map between two smooth quivers (in a sense that will be defined). We will show that this general computational device can be implemented efficiently on a GPU. We will present results on time-series classification and forecasting tasks.
Deep learning, operators, and parametric machines: 11 maggio alle 17- Mattia Bergomi (VEOS - Digital)
Abstract. Deep learning can solve some real-world tasks with human or super-human accuracy. However, the black-box nature of deep learning makes it challenging to evaluate which features and data transformations allow neural architectures to tackle a given task. This characteristic could make neural architectures as task-specific as handcrafted, engineered feature extractors. After a brief introduction to deep learning, we will introduce two mathematically grounded formalizations of deep learning. First, we will define spaces of group equivariant non-expansive operators (GENEOs). These spaces will serve as essential knowledge reservoirs that we can inject into a neural architecture to control its learning paths, allowing the network to generalize to unseen data points from few training samples. Extending on the GENEOs framework, we will then introduce the parametric machine's framework: a formal theory defining a parametric space where artificial neural networks live and can be combined to define original architectures. Moving from the topological setting to a more analytical one, we will show how parametric machines generalize discrete artificial neural networks and their state-of-the-art continuous counterpart: Neural Ordinary Differential Equations.
Relatore: Prof. Aldo Brigaglia (Università di Palermo)
Riassunto: L'altezza di un numero algebrico (non nullo) e' una misura della sua complesiita' aritmetica. Per un risultato di Kronecker, l'insiemi dei numeri algebrici non nulli di altezza 0 e' costituito dalle radici dell'unità. Una celebre congettura di Lehmer prevede una minorazione inversamente proporzionale al grado per i numeri di altezza >0. In questo seminario presenteremo qualche risultato in direzione della congettura, ed in particolare un recente teorema di V. Dimitrov."
Relatore: M. Tamborrino (University of Warwick)
Data: 26 Gennaio 2021 ore 17:30
Abstract: Approximate Bayesian Computation (ABC) method has become one of the major tools for parameter inference in complex mathematical models in the last decade. The method is based on the idea of deriving an approximate posterior density aiming to target the true (unavailable) posterior by running massive simulations from the model to replace the intractable likelihood. When applying ABC to stochastic models, the derivation of effective summary statistics and proper distances is particularly challenging, since simulations from the model under the same parameter configuration result in different output. Moreover, since exact simulation from complex stochastic models is rarely possible, reliable numerical methods need to be applied. In this talk, we show how to use the underlying structural properties of the model to construct specific ABC summaries that are less sensitive to the intrinsic stochasticity of the model and the importance of adopting reliable property-preserving numerical (splitting) schemes for the synthetic data generation. In particular, we show how only the ABC inferences based on property-preserving numerical methods are accurate, while the commonly used Euler-Maruyama scheme drastically fails even with very small stepsizes. The approach is illustrated on both simulated and real electroencephalography data.
link:
- https://unito.webex.com/unito/
j.php?MTID= m43d3c0642751f32a4be1cfe89d5cc 3d6 - Numero riunione:
- 121 604 8247
- Password:
- jWaf2hq6uw6
Relatore: Prof Samuele Antonini
Data: 11 gennaio 2021, ore 17:00
Titolo: Esempi, non-esempi e controesempi in matematica: analisi dei processi degli studenti
Abstract: L'apprendimento dei concetti matematici richiede l'attivazione di processi cognitivi e metacognitivi complessi che coinvolgono molto di più della definizione rigorosa. Una buona strategia di apprendimento è la costruzione, da parte degli stessi studenti, di esempi, non-esempi e controesempi. Per questo, una parte delle ricerche in didattica della matematica è stata dedicata allo studio dei processi di un soggetto coinvolto nella costruzione e nella trasformazione di esempi. Nel corso della conferenza verranno illustrati in sintesi alcuni dei processi identificati nel corso di uno studio con studenti esperti e verrà mostrato come da questi risultati sia stata costruita un’attività didattica per studenti di scuola secondaria di II grado.
Model theory and groups
Relatrice: Annalisa Conversano (Massey, NZ)
Data: 8 gennaio 2021 ore 9:30(*)
Abstract: Model theory is a branch of mathematical logic with strong connections to most areas of mathematics and theoretical computer science. The last few decades have seen very interesting interactions between model theory and various classes of groups, in particular topological groups and Lie groups. Lie groups are smooth manifolds with a compatible group operation, and they are found everywhere in mathematics and all areas of science. If you have ever encountered a group of matrices during your studies, it was most likely a Lie group.
In this talk recent work on the connections between groups and model theory will be explained, and many examples will be presented, with a view towards future developments.
Zoom Meeting ID: 886 2603 1968
(*) La riunione si apre alle ore 9:20 con una chiacchierata informale in italiano. I seminario vero e proprio, in inglese, comincia alle 9:30 e durerà circa un'ora.
Seminario Math-Lab - Le modalità di riconoscimento per questo seminario sono quelle valide per i seminari del dipartimento di Matematica "G. Peano"- consegna riassunto entro 19 gennaio ore 18:00
Venerdì 18 Dicembre alle ore 14.30 il Dott. Maurizio Garrione (Politecnico di Milano) terrà un seminario dal titolo
Le modalità di riconoscimento per questo seminario sono le stesse valide per i seminari del dipartimento di Matematica "G. Peano"- consegna riassunto entro mercoledì 29 dicembre ore 18:00
Relatore: Jozsef Lorinczi (Loughborough University, UK)
Titolo: Non-Local Dynamics - at the Interface of Stochastic Processes, Integro-Differential Equations and Operator Analysis
Data: Lunedì 7 Dicembre 2020
Ora: 17:00
Link: https://unito.webex.com/
- Numero riunione:
- 121 090 6218
- Password:
- nZsmAMMn424
- Le modalità di riconoscimento per questo seminario sono le stesse valide per i seminari del dipartimento di Matematica "G. Peano"- consegna riassunto entro mercoledì 18 dicembre ore 18:00
meet.google.com/hnx-eevj-amy E' rivolto a tutti i Dottorandi e Ricercatori/Professori interessati, nell' ambito delle Attività Formative 2019-2020 promosse e sponsorizzate dallo IUSS di Ferrara. Chiunque fosse interessato all' argomento o voglia anche solo curiosare, e' calorosamente invitato a partecipare , visto che l' argomento verra' presentato senza dare nulla per scontato. |
Il giorno mercoledì, 04 novembre, ore 14:00, il Prof. Weinan E terrà un seminario dal titolo:
“A Mathematical Perspective of Machine Learning”
Maggiori informazioni nella locandina allegata.
Il seminario si terrà in forma telematica, tramite la piattaforma Zoom. Per collegarsi è necessario utilizzare le seguenti credenziali:
https://us02web.zoom.us/j/
Accedendo al seminario, si prega di tenere microfono e videocamera disattivati. Per porre domande al termine del seminario si prega di chiedere la parola in chat.
Questo seminario fa parte della serie "Mathematics for Artificial Intelligence - MAIn 2021" organizzata nell'ambito del "Progetto di Eccellenza" del Dipartimento di Scienze Matematiche "G. L. Lagrange" del Politecnico di Torino (www.polito.it/disma-