Avertir le modérateur

22/02/2019

Un projet impliquant laboratoires, associations, start-up et doctorants>Parcours connectés » : accompagner la formation des enseignants dans la transformation numérique

Un projet impliquant laboratoires, associations, start-up… et doctorants

Un tel projet implique un ensemble de partenaires très variés. C’est l’association Synlab, porteur de Parcours connectés qui pilote et coordonne les actions menées par les différents parties prenantes.

En dehors du comité « recherche » impliquant 4 laboratoires, l’ESPE de Créteil est également impliquée, ainsi que la start-up Didask avec qui je travaille en étroite collaboration.

Le projet Parcours connectés emploie en tout trois doctorant·e·s rattachés à un laboratoire du consortium (Niluphar Ahmadi, en thèse de psychologie cognitive au Laboratoire de Psychologie : Cognition, Comportement, Communication de l’université de Rennes 2 et Benoît Choffin, en thèse d’informatique au Laboratoire de Recherche Informatique à Paris-Saclay).

Mieux comprendre et accompagner la formation des futurs professeurs

Deux grands axes guident le développement et le suivi de Parcours connectés :

  • Un premier axe qui se concentre sur des expérimentations à l’ESPE de l’académie de Créteil à la fois sur la partie formation initiale des étudiants qui se préparent au métier de professeurs des écoles, mais aussi sur l’accompagnement des néo-titulaires qui ont tout juste obtenu leur diplôme. Plusieurs cohortes sont suivies sur les 4 années du projet.
  • Un second axe se concentre sur des expérimentations de recherche à la fois fondamentale et appliquée. D’une part, il vise à mieux comprendre les mécanismes sous jacents de l’apprentissage ; mais aussi à réaliser l’évaluation et l’amélioration de la plate-forme numérique d’enseignement créée par la start-up Didask, partenaire du projet.

Mon projet de thèse est directement lié à ce 2e axe, Didask est en fait mon terrain d’expérimentation !

Des premiers résultats sur l’optimisation des apprentissages

Je m’intéresse à l’optimisation des apprentissages par le prisme de la psychologie cognitive. Ces vingt dernières années, de nombreux travaux de recherche ont été réalisés, répliqués et démontrés dans divers contextes d’apprentissage sur les stratégies qui permettent de maîtriser et mémoriser durablement de nouvelles connaissances.

Pourtant, ces résultats robustes sont peu diffusés et exploités pour créer des outils et environnements d’apprentissage fondés sur des preuves ; alors que certaines méthodes d’apprentissage peu efficaces persistent. L’hétérogénéité dans les classes est toujours bien présente, et à l’heure où l’on valorise la personnalisation des parcours d’apprentissage et la formation tout au long de la vie, peu de dispositifs permettent vraiment de répondre à ses problématiques et besoins (du moins en France…).

L’intuition de Didask a été de se dire que le numérique est un environnement très intéressant pour permettre à toute personne d’apprendre et acquérir de nouvelles compétences, se former à tout âge, et à son rythme. De plus, les fondateurs de Didask ont compris que les résultats de la recherche en psychologie pouvaient tout à fait être intégrés dans l’essence même d’une plate-forme d’enseignement/pour la formation.

Un résultat particulièrement significatif a attiré l’attention de Son Thierry Ly, président et co-fondateur de Didask : l’effet de récupération en mémoire (testing effect en anglais). Cet effet se définit comme le bénéfice sur la mémorisation de nouvelles informations lorsque celles ci sont entraînées et testées par un exercice de recherche en mémoire par rapport à une méthode plus passive de relecture répétée.

Autour du « testing effect »

L’architecture de la plate-forme Didask a été pensée et développée autour de l’apprentissage par la récupération en mémoire, en mettant au cœur des formations l’utilisation de quiz et exercices variés pour engager activement les apprenants et consolider la mémorisation à long terme de nouvelles informations. Lors de la création des contenus de formation, des ressources pédagogiques sont implémentées en appui des quiz, et peuvent prendre différentes formes : vidéos, articles, illustrations, textes, powerpoint… Les utilisateurs apprennent via les quiz, et peuvent accéder à la partie théorique du cours quand ils le souhaitent.

Testing effect (test-enhanced learning) in learning theory.

Lorsque j’ai commencé ma thèse, une question restait encore ouverte dans la littérature sur le testing effect, et intriguait également beaucoup Didask : à quel moment est-il plus opportun et bénéfique de faire les quiz d’entrainement ? Après après eu recours à la ressource pédagogique, autrement après avoir lu le cours ? ou avant même d’y accèder, sans avoir lu le cours ? Nous avons donc réalisé avec mon équipe de recherche et Didask une expérimentation sur de nombreux apprenants (285) pour répondre à cette question de l’emplacement optimal des quiz par rapport à la lecture des contenus d’apprentissage.

Nous avons trouvé que l’entrainement par des quiz après la lecture des contenus permettaient une meilleure mémorisation qu’un entrainement avec des quiz avant de lire les contenus du cours. Ces deux méthodes d’apprentissage menaient à des performances supérieures par rapport une méthode d’apprentissage sans quiz, avec une simple relecture des contenus (l’article associé à cette expérience a été soumis dans une revue internationale).

Suivi et impacts du projet e-FRAN

Synlab assure le suivi des différentes sous-projets de Parcours connectés, notamment en réunissant le consortium régulièrement dans l’année. Cela nous permet de faire un point de l’avancement de chacun, de tisser des collaborations inter-laboratoires, et de présenter la suite des événements. Du côté de mon laboratoire, une nouvelle expérimentation est en cours, de nouveaux résultats sont donc attendus pour la rentrée !

Plusieurs livrables sont inclus dans le projet et transmis directement à la Caisse Des Dépôts qui se matérialisent par des rapports intermédiaires faisant office de bilan ; et la mise en ligne d’une formation à destination des enseignants sur des compétences transversales (coopération, climat de classe, attention et concentration, créativité, pédagogies actives) sur Didask.

Enfin, le premier colloque e-FRAN a été organisé en janvier 2018 afin de réunir tous les projets lauréats, ce qui a permis une première rencontre de tous les acteurs impliqués aussi bien du côté éducation nationale que côté recherche. Les doctorant·e·s ont pu présenter leurs travaux, ce qui a permis d’apprécier la diversité des projets financés et implantés partout en France. Dans cette logique de créer un écosystème autour du numérique éducatif tout en créant un vivier de futur·e·s chercheur·e·s.

Alice Latimier, Doctorante, Laboratoire de sciences cognitives et psycholinguistique, École normale supérieure (ENS)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original

18/02/2019

Fondations Data Science. Levels of Understanding Data.Connaître la structure des données.Connaître les bizarreries de données d'entreprise.

The World is our Workplace. Let's work togheter.ArchiveFW21siècle>DU TEMPS QUI PASSE:Présent,Passé,Futur

Fondations Data Science: Connaissez vos données. Vraiment, vraiment, le savoir

Accéder au profil de Randy Au
 
Connaissez vos données, leur provenance, leur contenu et leur signification. Tout commence à partir de là.
S'il y a un conseil que je donne régulièrement à chaque personne qui débute dans le traitement des données, qu'il s'agisse d'un analyste, d'un scientifique ou d'un visualiseur, c'est bien ça.
C’est la colline sur laquelle je passe la plus grande partie de mon temps, jusqu’à l’obsession. C'est un trou de lapin deeeeeeep mais éminemment important.

Mais pourquoi?

Je ne pense pas avoir rencontré de praticien qui croit être familier avec un ensemble de données et les systèmes environnants, c'est facultatif, mais c'est quelque chose qui amène des personnes qui ne sont pas familières avec le domaine et qui se laissent aller.

La vie n'est pas une entrée de week-end Kaggle décontractée. Lancer une forêt aléatoire sur vos données de travail est à peu près aussi efficace que de lancer un bonsaï sur votre serveur de base de données. Cela blesse votre serveur et laisse la saleté partout pour que vous puissiez la nettoyer.

Bien que vos collègues en affaires ne soient pas des informaticiens, ils ne sont pas idiots (espérons-le). Ce sont des experts du domaine qui en savent beaucoup sur l'entreprise. Ne soyez pas l'analyste subalterne présentant au PDG une nouvelle découverte brillante à laquelle on vous pose la question "Alors, avez-vous retiré les 3 comptes de contrats à volume élevé spéciaux que nous avons?", Ne finit pas bien. Faites-moi confiance.

Que signifie "connaître vos données"?

Il y a beaucoup de couches à cela. Je vais entrer dans chaque couche en détail. Vous pouvez également vous joindre à moi pour revisiter les traumatismes du passé à tous les niveaux.

Levels of Understanding Data

Data Layout.png

 L'oignon de la connaissance des données. Les choses se compliquent à mesure que vous sortez.

La couche la plus simple consiste à connaître la structure des données - son emplacement, son organisation. Dans un contexte Data Science, il s'agit généralement d'une base de données ou d'une archive de journal, peut-être de deux services tiers et du schéma défini. Combien y a-t-il de magasins de données, que contiennent-ils? Quels sont les champs, quels sont le schéma de la table et les relations. Structure de base et substance de définition.

Vient ensuite ce que sont les bizarreries et les pièges dans des données individuelles. Est-ce que les données suivent le schéma, y ​​a-t-il des erreurs historiques et des artefacts étranges? Où sont les pièges (il y a TOUJOURS des pièges).

Il y a ensuite des problèmes commerciaux concernant les données. Comptes de test internes, partenariats spéciaux avec offres spéciales, pratiques de traitement, de comptabilité et de sécurité exigeant des implémentations spécifiques, etc.

Une autre étape plus profonde est la manière dont ces données sont collectées, d’où proviennent-elles. Quels systèmes l'ont généré, quelle logique et quelle technologie se cache derrière la création et l'enregistrement.

Enfin, les choses se gâtent en demandant pourquoi des données ont été collectées et ce qui ne l’a pas été. Pourquoi certaines mesures ont-elles été choisies par rapport à d'autres?

Combien de temps ce processus prend-il normalement?

Ça dépend

Je m'attends généralement à environ 3 à 6 mois d'interrogation et d'utilisation quotidienne de l'ensemble de données avant de me sentir assez à l'aise pour affirmer connaître les principes fondamentaux d'un système comportant environ une douzaine de tables de base critiques + un couple. de douze tables de soutien. Entreprises de taille moyenne / matériel au niveau du système.

Évidemment, cela dépend aussi de la quantité de données, du nombre de systèmes, etc. Il faut parfois des années pour «maîtriser» un système, pour que des personnes le modifient constamment.

# 1 Connaître la structure des données

Il s’agit essentiellement d’enjeux de savoir ce qui est disponible. Vous devez simplement savoir cela pour même commencer à travailler.

Mais si vous grattez un peu plus profondément, vous constaterez que les nuances sont nombreuses. Existe-t-il des contraintes de clé étrangère? La base de données est-elle configurée comme un OLTP ou un OLAP? La structure des données a-t-elle beaucoup changé au fil du temps, comment se sont déroulées ces migrations et mises à jour? Quel est le codage de texte et le fuseau horaire par défaut? (Regardez, il fut un temps où UTF-8 n'était pas la valeur par défaut.)

Quels champs sont générés automatiquement (champs auto-incrémentés, schémas de partage, horodatage qui se met à jour automatiquement, etc.). Quels sont les index pertinents sur les tables. Quels sont les types de données et comment tout est-il appliqué? (J'ai passé des années dans un gros environnement MySQL, puis dans un environnement de journalisation géant, c'est une préoccupation majeure.)

Les choses deviennent encore plus amusantes lorsque vous avez des environnements de production plus complexes. La base de données est là, les journaux bruts y sont, les journaux traités sont là, les outils tiers utilisent autre chose, Hadoop habite sur un autre ensemble de boîtes, et nous avons aussi des choses dans le cloud? Avez-vous même toutes les informations d'identification pour accéder à la substance? Sont-ils en cours d'exécution sur la même horloge? Comment diable allez-vous rejoindre ce genre de choses ensemble? Sur quel (s) système (s) allez-vous joindre ce genre de choses ensemble? Allez-vous devenir fou en essayant de faire ces jointures? (Indice: probablement)

Pourquoi cette couche est importante pour vous

Vous devez vous familiariser avec tout cela pour pouvoir faire votre travail. C'est comme savoir où se trouvent tous les ingrédients de la cuisine. Négocier l'accès peut être un cauchemar dans certaines organisations, et vous devez alors tout organiser dans un endroit où vous pouvez faire votre travail.

À un niveau plus profond, il existe souvent plusieurs façons de mesurer quelque chose: une vente peut être enregistrée dans l'entrepôt de données, mais également dans la table des commandes de base, et elle laisse des traces dans les journaux bruts du serveur. Il y a des couches de traitement entre les deux, ces détails pourraient être importants un jour.

2 Connaissez vos enregistrements de données

La première chose que je fais lorsque j'accède à une table de données est d'exécuter SELECT * LIMIT 5 dessus. Je ne me soucie généralement pas de décrire. Regarder quelques lignes réelles est plus informatif.

Jouez avec les données assez longtemps et vous rencontrerez des choses étranges. Même dans le monde structuré d'une base de données relationnelle, vous pouvez trouver toutes sortes de bizarreries. Les choses deviennent encore plus folles dans les journaux arbitraires. Voici quelques exemples mémorables:

Les valeurs NULL sortent juste de manière aléatoire pour vous permettre de le savoir lorsque vous le soupçonnez le moins. Si un champ n'est pas codé en dur comme étant non NULL, je m'attends maintenant à trouver des valeurs NULL

Les entiers sont utilisés comme masques de bits pour stocker les indicateurs de préférence parce que quelqu'un sur Eng a pensé que ce serait bien et compact. Les opérations bit à bit en SQL constituent une dimension supplémentaire de plaisir. Les discussions ont eu

Nombreux types d'horodatage: chaîne ISO avec / sans tz, unixtimes précis en microsecondes sous forme d'entiers 64 bits, horodatages réels utilisant le type interne

 

  • JSON stocké en texte brut car la base de données ne prend pas encore en charge JSON
  • JSON tronqué car nous avons oublié que les champs TEXT ont une longueur finie
  • Entrées d'identifiants en double dans un système où les dupes ne devraient pas se produire - sur une table de revenus principale
  • Encodage de texte endommagé
  • Surprise t, n, r, c caractères dans les chaînes d’agent utilisateur encrassant un pipeline csv
  • Une secousse a réussi à mettre 0 dans une chose
  • Les noms de champ qui sont réutilisés pour un usage complètement différent parce que Eng ne voulait pas exécuter ALTER en raison d'un temps d'arrêt. (Vous savez qui vous êtes, champ "logo")
  • Dumps de données du code COBOL du gouvernement sur un ordinateur central quelque part
  • ID orphelins, car personne n'utilise vraiment les contraintes de clé étrangère
  • Tout le plaisir que vous pouvez imaginer et bien plus encore

Traiter avec cette couche

La folie absolue de cette couche explique pourquoi la plupart des utilisateurs de données semblent passer la majorité de leur temps à nettoyer et à préparer les données . Entre les bogues introduisant des données erronées, les utilisateurs malveillants / naïfs qui vous donnent des données étranges et la mauvaise conception occasionnelle d'un système, la liste est illimitée.

Nous n'avons même pas envisagé ce qui se passerait si vous exploriez le Web ou si vous deviez extraire des données d'un fichier PDF ou d'une "feuille de calcul au format Excel".

En fait, ma définition idiote de scientifique junior en informatique est une personne qui ne cède pas violemment à l’idée de mettre une zone de texte ouverte sur Internet.

La plupart de ces problèmes de données vont probablement bloquer le code que vous écrivez pour effectuer une analyse. ce qui est généralement une bonne chose. Si vous êtes assez chanceux (malchanceux?) Pour que votre code soit exécuté malgré des données étranges, cela invalidera toutes les conclusions que vous tirerez et vous devrez être au courant pour comprendre ce qui s'est passé.

En cas de doute, demandez à d'autres personnes si vous voyez des données étranges. C'est très souvent un bug qui devrait être corrigé.

Connaître les bizarreries de données d'entreprise

Les entreprises collectent souvent d'étranges cas particuliers en cours de route. Ces cas particuliers peuvent vous faire trébucher encore plus dur qu'un NULL aléatoire dans votre champ d'identification.

Ils sont dangereux car ils se manifestent sous forme de points de données valides, mais leur comportement est radicalement différent.

Voici des exemples de ceux que j'ai vus:

 

  • Les utilisateurs internes, pour les tests, les employés ou les «amis de l'entreprise» utilisent. Ils utilisent probablement les choses différemment de tout le monde
  • Partenaires stratégiques, ils ont peut-être des quotas et une activité énormément plus importants et sont facturés à prix réduit
  • Comptes revendeurs qui contrôlent efficacement 50 comptes d'activité sous un seul compte
  • Calendriers en général. Les jours fériés vont déconner avec vos données, les durées mensuelles avec vos agrégations. J'ai une haine brûlante pour Pâques uniquement parce que c'est une date différente chaque année et me permet de faire des comparaisons d'une année à l'autre deux fois par an.

Comment traiter avec cette couche

Les experts de domaine et les partenaires de l’ensemble du secteur sont la clé pour traiter ce type de données. Toutes ces choses font partie des connaissances institutionnelles que vous devez exploiter pour donner un sens aux données que vous voyez.

Votre seul autre garde-corps est la vigilance à propos de la répartition de l'activité et des utilisateurs. Ces entrées de cas spéciaux ont tendance à se distinguer d'un client plus typique, de sorte que vous pouvez les rechercher comme s'il s'agissait d'un gros client, puis être corrigées à mi-parcours.

Savoir d'où proviennent les données, comment elles sont générées et définies

En science, nous sommes supposés documenter méticuleusement comment les données ont été collectées et traitées, car les détails de ce processus de collecte sont importants. Des tonnes de recherches ont été invalidées, car il y avait une faille dans la manière dont les données ont été rassemblées et utilisées. Dans notre cas, les implémentations technologiques comptent beaucoup ici, alors éclatez votre chapeau.

Est-ce que vous dépendez des cookies? Cela signifie que les gens peuvent les effacer, les bloquer ou ils expirent à cause d'un TTL court. Les gens utilisent plusieurs navigateurs et appareils. Un exemple simple: "cookie unique" n'est pas la même chose que "utilisateur humain unique", mélangez-les et vous passerez un mauvais moment.

Utilisez-vous du code JavaScript frontal pour envoyer des événements tels que des clics et des défilés à vos systèmes? Est-ce que ça marche sur tous les navigateurs? Parfois, souvenez-vous que les gens bloquent le javascript et que les robots exécutent rarement JS. Qu'est-ce qui attrape les événements chez nous? Quelle machine enregistre le temps? Les événements se déclenchent-ils juste avant ou juste après l'API nous intéressent-ils?

Si des éléments sont suivis dans la base de données, quand la mise à jour aura-t-elle lieu? Est-ce que tout est emballé dans une transaction? Les drapeaux d'état changent-ils de façon monotone ou librement? Quelle est la logique métier dictant les changements d'état? Est-il possible d'obtenir des entrées en double?

Comment votre structure de tests A / B affecte-t-elle les sujets, attribue-t-elle réellement des variantes de manière aléatoire, sans biais? Les événements sont-ils comptés correctement?

Données géospatiales? Amusez-vous avec les définitions des régions métropolitaines, la manipulation des codes postaux. Le comté de Queens, dans l'État de New York, regroupe une foule de noms plus petits.

Données IP? N'oubliez pas les adresses IP, NAT et VPN dynamiques et leur interaction avec les appareils mobiles. En outre, les géolocalisations ne sont que des tables de recherche très complexes fournies par une poignée de fournisseurs.

Capteurs physiques? Maintenant, vous avez des effets d'étalonnage et d'usure, des défaillances et l'environnement réel qui vous gêne.

Gérer cette couche

Comme vous pouvez le constater, les détails spécifiques importent beaucoup. À ce stade, vous vérifiez l'intégrité de la logique derrière les données existantes. Vous devez être extrêmement conscient de la myriade de biais et de bugs présents dans les données afin de savoir exactement ce que vous pouvez raisonnablement dire. Ces détails vont souvent faire ou défaire un modèle. Tout ce qui parle de partialité dans l'IA / ML commence ici.

Les experts du domaine rechercheront ces détails et vous devrez exploiter leurs précieuses connaissances. Il est difficile de battre le savoir institutionnel collectif dans ce domaine.

Vous pouvez vous aider à découvrir ces problèmes en examinant attentivement vos données, en vérifiant les distributions, en vous demandant pourquoi elles ont cet aspect.

Au fil du temps, vous devriez être en mesure de comprendre ce que les ingénieurs essayaient d'accomplir en examinant simplement la structure et les données de la table de données. Il s’agit d’un journal des transactions, d’une piste de vérification des modifications de paramètres, des commandes passées ici et pouvant contenir plusieurs envois. Les codes de statut sont mis à jour de cette manière. Un ordre de progression est garanti, mais pas un autre.

Avec cette idée de l'intention d'une table, vous pouvez trouver toutes sortes de bogues intéressants, dont beaucoup ne seront pas remarqués par d'autres ingénieurs.

Connaître les décisions de collecte en cours

Pendant tout ce temps, je parlais des données collectées. Il y a encore un grand vide, tout ce qui n'a pas été collecté.

Quelqu'un a fait le choix, conscient ou inconscient, de collecter une donnée et non une autre. Il est important de connaître ces angles morts si vous craignez des biais dans vos données et vos modèles.

Ces décisions découlent souvent de considérations pratiques. Quelque chose est impossible à collecter ou nous avons décidé de ne pas le protéger, pour des raisons éthiques ou parce que nous ne pensons pas que cela serait utile. Cela provient rarement d'une malveillance ouverte, mais les effets d'une mauvaise utilisation des données peuvent être désastreux.

Par exemple, nous ne pouvons collecter que des données sur nos propres utilisateurs car, par définition, les non-utilisateurs n'utilisent pas notre produit. Il y a là un biais d'auto-sélection, ce qui crée des problèmes lorsque vous construisez un nouveau produit ou entrez sur un nouveau marché. Les affaires sont jonchées de cadavres peu accessibles sur de nouveaux marchés. Ensuite, il y a tous les résultats extrêmement dérangeants d'algorithmes donnant des résultats biaisés et racistes utilisés de manière très douteuse.

Si vous connaissez des angles morts, vous pouvez activement prendre des mesures pour y remédier, mais uniquement si vous savez qu'il existe un problème. Peut-être que vous allez collecter plus de données, ou rééquilibrer les données existantes. Parfois, il suffit de conclure que quelque chose est une idée horrible et qu’il devrait être abandonné.

Tout ce que nous faisons n’est pas controversé, mais nous utilisons tous des algorithmes pour choisir les gagnants et les perdants. Nous devons prendre cette responsabilité au sérieux.

Continue d'apprendre

Vous n'allez jamais avoir des données parfaites ni une compréhension parfaite de toutes vos données. Juste au moment où vous pensez maîtriser quelque chose, une nouvelle fonctionnalité a été ajoutée: les normes changent, les systèmes sont supprimés. Continuez simplement à apprendre, documentez ce que vous pouvez, laissez des traces sur papier pour vos analyses et continuez.

 

 

 

16/02/2019

France: des experts de l'ONU dénoncent des restrictions graves aux droits des manifestants «gilets jaunes»

anglais

GENÈVE (14 février 2019) — Le droit de manifester en France a été restreint de manière disproportionnée lors des manifestations récentes des "gilets jaunes" et les autorités devraient repenser leurs politiques en matière de maintien de l'ordre pour garantir l'exercice des libertés, selon un groupe d'experts des droits de l'homme des Nations unies*.

« Depuis le début du mouvement de contestation en novembre 2018, nous avons reçu des allégations graves d’usage excessif de la force. Plus de 1700 personnes auraient été blessées à la suite des manifestations dans tout le pays, » ont déclaré les experts.

« Les restrictions imposées aux droits ont également entraîné un nombre élevé  d'interpellations et de gardes à vue, des fouilles et confiscations de matériel de manifestants, ainsi que des blessures graves causées par un usage disproportionné d’armes dites « non-létales » telles que les grenades et les lanceurs de balles de défense ou "flashballs", » ont-ils ajouté.

«Garantir l’ordre public et la sécurité dans le cadre de mesures de gestion de foule ou d’encadrement des manifestations implique la nécessité de respecter et de protéger les manifestants qui se rendent pacifiquement à une manifestation pour s’exprimer, » ont souligné les experts.

« Nous sommes conscients du fait que certaines manifestations sont devenues violentes et ont entrainé des débordements, mais nous craignons que la réponse disproportionnée à ces excès puisse dissuader la population de continuer à exercer ses libertés fondamentales. Il est très inquiétant de constater qu'après des semaines de manifestations, les restrictions et tactiques de gestion des rassemblements et du recours à la force ne se sont pas améliorées. » 

De plus, les experts ont exprimé leurs vives préoccupations quant à une proposition de loi visant prétendument à prévenir les violences lors de manifestations et à sanctionner leurs auteurs, dont certaines dispositions ne seraient, selon eux, pas conformes avec le Pacte international relatif aux droits civils et politiques auquel la France est partie.

« La proposition d’interdiction administrative de manifester, l'établissement de mesures de contrôle supplémentaire et l’imposition de lourdes sanctions constituent de sévères restrictions à la liberté de manifester. Ces dispositions pourraient être appliquées de manière arbitraire et conduire à des dérives extrêmement graves, » ont souligné les experts.

« Nous encourageons la France à repenser ses politiques en matière de maintien de l’ordre et encourageons les autorités françaises à ouvrir des voies de dialogue afin d’atténuer le niveau de tension et de reconnaître le rôle important et légitime que les mouvements sociaux jouent dans la gouvernance, » ont conclu les experts.

(*) Les experts: M. Seong-Phil Hong (Président-Rapporteur), Groupe de travail sur la détention arbitraire ;M. Michel Forst, Rapporteur spécial sur la situation des défenseurs des droits de l'homme; M. Clément Nyaletsossi Voule, Rapporteur spécial sur les droits à la liberté de réunion pacifique et d'association

 
Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu