I B N M

Institut Brestois du Numérique et des Mathématiques

SEMINAIRES

Programme

  • Physical Layer Security in Wireless Communications

  • Le Mardi 4 octobre 2016 à 14h (Amphi B)
    • Telex Magloire NGATCHED NKOUATCHAH
    • Wireless communications are particularly vulnerable to security attacks due to the broadcast nature of wireless channels. Traditionally, security issues have been dealt with at upper-layers of the protocol stack using cryptographic techniques. Although cryptographic methods have proven to be efficient, they rely on the assumed limited computing capabilities of the eavesdroppers and exhibit vulnerabilities in term of the inevitable secret key distribution as well as management. Introduced by Wyner and based on the wiretap channel model, physical layer security (PLS) has recently become an emerging technique to complement and significantly improve the communication security of wireless networks. Unlike cryptographic approaches, PLS exploits the physical layer properties of the communication system, such as thermal noise, interference, and the time-varying nature of fading channels to maximize the uncertainty concerning the source message at the eavesdropper. The presentation will introduce the fundamentals of PLS and discuss multiple approaches currently investigated to achieve security in the physical layer. These include preprocessing schemes (coding, key generation, artificial noise), signal processing schemes, game theoretic approaches, cooperative communications schemes, and stochastic geometry approaches.

  • Réseaux de neurones binaires et applications

  • Le Jeudi 29 septembre 2016 à 14h (Amphi D)
    • Vincent Gripon
    • Chargé de Recherche à Télécom Bretagne
    • Abstract: Les processus de stockage de l'information mentale restent essentiellement inconnus. De nombreux modèles existent et sont discutés selon leur plausibilité biologique ou leur performances. Nous montrons comment, en partant de quelques règles simples tirées de la littérature neurobiologique (parcimonie, compétition, organisation structurée), il est possible d'imaginer des modèles se comparant avantageusement à l'état de l'art. Nous discutons également des applications possibles de ces modèles dans des systèmes d’ingénierie.

 

  • Statistical Machine Learning Methods for Handling High Dimensional Data

  • Le Mardi 21 juin 2016 à 10h (Amphi D)
    • Ernest Fokoué
    • Professor : R.I.T. (Rochester Institute of Technology)
    • Abstract: This lecture intends to give the audience a cursory tour of some of the most common tools used for learning the patterns underlying high multidimensional arrays of data. I will first focus on the ubiquitous two dimensional array (matrix) setting with n denoting the sample size or number of p dimensional vectors under consideration, and I will touch on some of the most recent statistical and computational methods for dealing with both the n>>> p and the n <<< p scenarios. Among other things, I will talk about the techniques of regularization/penalization, selection and projection that help circumvent the inferential and prediction challenges inherent in high dimensional regression, classification and clustering. I will also cover ensemble techniques like random forest and random subspace learning in general that have proved formidable in mitigating many learning challenges arising in high dimensional predictive modeling. Throughout this presentation, the concept of “high” will remain relative, typically approached from pure commonsense but also with respect to the computational architecture ultimately used for implementing the devised methods. Indeed, some of the solutions to the high dimensional data modeling conundrum will come from making the most of high performance parallel computation now available through multicore CPU architectures now standard on all our desktop computers, or Graphics Processing Units (GPU) that can be easily added or even clusters of computers more and more commonly used by statisticians.

 

  • Traitement modulaire de l’information : une approche flexible

  • Le Jeudi 21 Avril 2016 (Amphi E)
    • Ismail BISKRI
    • Professeur en Mathématiques et Informatique à l’Université du Québec à Trois-Rivières.
    • Abstract: Avec les travaux récents en humanités numériques, l’hypothèse voulant qu’un expert d’un domaine devienne dépositaire d’un système conceptuel, pouvant être mis en œuvre et pouvant être mis à jour de temps à autre pour être adapté aux nouveaux besoins, s’avère non productive, vu la nature sémiotique complexe du contenu d’un document, qui permet une multiplicité de points de vue dans sa lecture et son interprétation, ainsi que dans les informations et les connaissances qu’il faut y identifier. Dans notre perspective, notre hypothèse est que toute analyse doit être perçue comme un agencement particulier, dans une chaîne de traitement, de modules informatiques pourvus d’une ou plusieurs fonctionnalités pour assister un ingénieur ou un simple utilisateur dans leur quête d’informations ou de connaissances. La chaîne de traitement doit être l’aboutissement d’un véritable processus de découverte qui nécessite un va et vient constant entre description théorique de la solution, implémentation informatique, expérimentation et raffinement de la description théorique de la solution, à la lumière des résultats de l’expérimentation. Ce processus est nécessairement récursif. L’implantation informatique de la chaîne de traitement doit reposer sur un modèle flexible.