Document de position · Analyse comparative mondiale · Propositions institutionnelles
SOS ÉCRANS| Synthèse exécutive | L'essentiel en 60 secondes — constats, propositions, urgence | p. 2 → |
| § 01 — Position | Trois pistes concrètes à l'attention des pouvoirs publics | p. 3 → |
| § 02 — Les faits | Les données qui ne bougent pas — TikTok, plateformes, santé mentale | p. 4 → |
| § 03 — Tour du monde | 9 pays, 14 expérimentations — ce qui fonctionne, ce qui échoue | p. 5 → |
| § 04 — Cartographie | Qui répond à quoi — et qui échoue — matrice comparative | p. 7 → |
| § 05 — Shieldy | Ce que c'est, ce que ça fait, ce que ça ne fait pas | p. 8 → |
| § 06 — Notre lecture | Pourquoi l'interdiction du smartphone n'est pas suffisante seule | p. 10 → |
| § 07 — Parcours | Huit mois de travail — ce que nous avons construit, étape par étape | p. 11 → |
| § 08 — Feuille de route | Ce qui est fait, ce qui reste à faire — en toute honnêteté | p. 12 → |
| § 09 — SOS-Parents | Quand la protection technique ne suffit pas — le dialogue familial | p. 13 → |
| § 10 — Conclusion | Ce que nous avons construit — et ce que nous demandons | p. 14 → |
Annexes jointes
SOS ÉCRANSLe problème central : La loi peut décréter des règles. Les plateformes peuvent être sommées de les respecter. Mais aucun des deux ne contrôle l'appareil qui est dans la poche de l'enfant. C'est là que tout se passe — et c'est là que nous intervenons.
① Les 11–15 ans passent 5h44/jour sur écran — davantage que le sommeil recommandé. (ESTEBAN / Santé Publique France)
② TikTok a mis en moyenne 2 min 38 avant de proposer du contenu suicidaire à un compte "adolescent en détresse". (AN N°1770, p. 96)
③ 68 % des cas de prédation sexuelle signalés transitent par WhatsApp ou iMessage — des messageries natives inaccessibles aux outils de contrôle parental. (IWF 2024)
④ Toutes les apps de contrôle parental disponibles sur le marché sont contournables en moins de 5 minutes. (AN N°1770, p. 263)
① Shieldy — un navigateur iOS/Android qui bloque nativement, au niveau OS (FamilyControls Apple), les réseaux sociaux, l'accès nocturne et les contenus à risque. Non-contournable par conception.
② Atelier ZenÉcran — 6 modules d'éducation au numérique déployables en classe (6–18 ans), alignés sur les recommandations 18-20 du rapport AN N°1770.
③ SOS-Parents — un espace de ressources cliniques pour aider les familles à engager le dialogue sans confrontation.
④ Observatoire National du Numérique — un outil de mesure comportementale agrégée (sans donnée individuelle) pour alimenter la recherche publique.
La PPL Miller sur l'interdiction des réseaux sociaux aux mineurs de 15 ans est en cours d'examen. L'ARCOM finalise son référentiel de labellisation des outils de contrôle parental. La Commission d'enquête TikTok de l'Assemblée nationale vient de rendre ses conclusions. La fenêtre d'action 2026–2027 est la plus courte et la plus concrète depuis l'émergence du sujet.
Shieldy est opérationnel. Il ne demande pas à attendre une loi pour fonctionner — il peut appliquer les règles que la loi veut instaurer, dès maintenant, sur l'appareil de l'enfant. À notre connaissance, c'est le seul dispositif actuellement disponible qui permet d'appliquer techniquement la Recommandation 32 du rapport N°1770 — notamment le couvre-feu 22h–8h — sans attendre un cadre réglementaire complémentaire.
Nous ne formulons pas des exigences — nous partageons les conclusions d'un travail de huit mois, librement, à la disposition de quiconque souhaite s'en saisir.
Trois suggestions concrètes aux pouvoirs publics sont détaillées en page 13 de ce document.
SOS ÉCRANSEn septembre 2025, mon fils allait avoir un smartphone. Pas parce que je le voulais — parce que la pression sociale à son âge ne laisse plus vraiment le choix. J'ai passé plusieurs semaines à chercher une solution de protection sérieuse. J'ai testé toutes les applications de contrôle parental disponibles. Toutes étaient contournables. Certaines collectaient des données. Aucune n'agissait au niveau qui compte vraiment — le navigateur, le seul point d'entrée que l'enfant ne peut pas éviter.
J'ai donc commencé à coder. Ce qui devait être une solution personnelle est devenu, en huit mois, un projet d'une ampleur que je n'avais pas anticipée.
Huit mois de développement continu. Des milliers d'heures sur des environnements iOS et Android. Une base documentaire de plusieurs millions de sources — rapports parlementaires, études longitudinales, législations étrangères, audits techniques d'organisations comme le Center for Countering Digital Hate, Amnesty International ou le PEReN. Neuf pays analysés dans le détail. Toutes les expérimentations mondiales répertoriées et évaluées.
Ce que cette recherche a confirmé : Shieldy n'est pas une solution française. C'est la synthèse de ce que le monde entier a tenté — et là où il a échoué. Aucun État n'a résolu le problème fondamental. L'Australie a interdit — les adolescents ont téléchargé des VPN. La Chine a imposé un couvre-feu — au prix d'une surveillance d'État totale. Les États-Unis ont légiféré État par État — sans outil d'application. Les GAFAM eux-mêmes ont documenté les dégâts en interne — et ont choisi de ne pas agir (les "Facebook Files" de Frances Haugen, les documents TikTok révélés par NPR en 2024 le prouvent). La France seule, dans son coin, ne peut pas résoudre ce problème. Et les plateformes ne le résoudront jamais d'elles-mêmes. Shieldy est né de l'agrégation de tout ce qui existe dans le monde, de l'analyse méthodique de tous les échecs, et d'une conviction : une association loi 1901 sans investisseur peut faire ce qu'aucun État ni aucune plateforme ne veut faire.
Ce document n'est pas un dossier de subvention. Ce n'est pas une étude de marché. C'est notre analyse — rigoureuse, sourcée, honnête sur ses limites — de ce qui fonctionne et de ce qui ne fonctionne pas pour protéger les enfants en ligne. Et c'est une invitation à reconnaître que la protection côté terminal est le chaînon manquant de toutes les politiques publiques actuelles.
« Interdire l'accès aux réseaux sociaux avant 15 ans, c'est d'une certaine manière admettre que nous avons renoncé à réguler les géants du numérique. »
Arthur Delaporte · Président, Commission d'enquête TikTok · Rapport AN N°1770, p.28 · Sept. 2025Nous complétons cette phrase : légiférer sans outil d'application côté terminal, c'est aussi admettre qu'on a renoncé à protéger concrètement les enfants. Ce document explique pourquoi — et ce que nous avons construit pour que cette deuxième renonciation n'ait pas lieu.
Emmanuel Klein
Fondateur, SOS ÉCRANS · Association loi 1901 · RNA W751283606
SOS ÉCRANSInterdire le portable aux mineurs est une mesure forte sur le plan symbolique. Elle est inopérante sans outil d'application côté terminal. L'Utah a imposé un couvre-feu légal — contournable en 30 secondes via un navigateur standard. Toutes les expérimentations mondiales le confirment (voir § 03 — Tour du monde) : la loi peut décréter, elle ne peut pas entrer dans le téléphone.
Le DSA, la PPL Laure Miller, les lignes directrices européennes sont des avancées réelles. Elles agissent sur le comportement des plateformes. Elles ne peuvent pas atteindre l'appareil de l'enfant. Les documents internes de TikTok (Kentucky Public Radio / NPR, oct. 2024) montrent que l'objectif de leurs outils n'est pas de réduire l'usage mais "d'améliorer la confiance du public". La Commission parlementaire l'a établi : les apps tierces de contrôle parental sont contournables (p.263) ; les modes mineurs des plateformes sont délibérément cosmétiques (p.259).
Shieldy n'est pas une application de contrôle parental. C'est un navigateur, verrouillé au niveau du système d'exploitation via l'entitlement Apple FamilyControls (accordé, BUILD SUCCEEDED, mai 2026). Ce verrouillage est non-contournable par l'enfant. Il ne lit aucun contenu. Il ne collecte aucune donnée. Il est gratuit, garanti par les statuts d'une association loi 1901. Et une version Android — architecturalement plus puissante — est en développement.
Il est suggéré que les textes législatifs et les communications institutionnelles établissent explicitement : (1) la Loi — qui fixe les règles, (2) les Plateformes — qui doivent s'y conformer sous peine de sanctions, (3) le Terminal — seul endroit où la protection est continue, réelle et non-contournable. Confondre ces trois niveaux est l'erreur structurelle qui laisse les enfants exposés malgré des lois correctement rédigées.
La Recommandation 32 (couvre-feu 22h–8h pour les 15–18 ans) est inopérante sans outil côté terminal. La Recommandation 33 (labellisation des apps de contrôle parental) n'a de sens que si des solutions réellement non-contournables existent et sont identifiables. Il est suggéré que ces deux recommandations soient explicitement liées à l'existence d'outils comme Shieldy dans les travaux réglementaires à venir.
Le référentiel à venir (Reco 33) distingue à ce jour les apps de filtrage DNS et les apps de contrôle parental classiques. Il est recommandé d'y ajouter une catégorie "navigateur natif avec verrouillage système", distincte et supérieure en termes de fiabilité anti-contournement, conforme aux critères du PEReN (fiabilité + vie privée + double anonymat).
SOS ÉCRANSEn décembre 2022, le Center for Countering Digital Hate a créé des comptes paramétrés comme des mineurs de 13 ans s'intéressant aux questions de santé mentale et d'image corporelle. Les résultats sont documentés dans le Rapport AN N°1770, page 96 :
« La dépression est un thème central dans l'univers adolescent ; les plateformes l'identifient comme un sujet stratégique et la mettent automatiquement en avant dans les contenus suggérés. »
Mme Elisa Jadot · Commission d'enquête TikTok · Rapport AN N°1770, compte rendu n°5Les "Facebook Files" révélés en 2021 par la lanceuse d'alerte Frances Haugen (ancienne employée de Facebook) établissaient que deux adolescentes sur trois souffrent de la comparaison sociale sur Instagram — et qu'une sur trois s'était sentie pire en utilisant Instagram. Les documents internes de TikTok révélés en octobre 2024 par Kentucky Public Radio et National Public Radio montrent que l'objectif déclaré en interne de leurs outils de limitation du temps d'écran n'est pas de réduire l'usage, mais "d'améliorer la confiance du public dans la plateforme via la couverture médiatique". La Commission parlementaire en a pris acte page 259 de son rapport. TikTok a contesté ces citations sans produire de documents contradictoires.
Constat de la Commission (Rapport AN N°1770, p.259) : TikTok n'a pas été en mesure d'indiquer le pourcentage de comptes mineurs pour lesquels ses outils de contrôle parental sont effectivement utilisés, ni leur efficacité réelle sur le temps d'utilisation.
SOS ÉCRANSL'une des contributions de ce travail est la constitution d'une base documentaire exhaustive sur l'ensemble des expérimentations mondiales de protection des mineurs en ligne. Notre conclusion est uniforme et documentée : toutes les approches qui agissent côté loi ou côté plateforme, sans outil côté terminal, produisent le même résultat — le contournement ou l'impunité.
Première interdiction nationale. Obligations imposées aux plateformes, pas aux appareils. Résultat immédiat observé : explosion des téléchargements de VPN chez les adolescents australiens dans les semaines suivant l'annonce. La loi s'applique aux plateformes — pas à l'appareil entre les mains de l'enfant.
Les terminaux cessent de fournir des services aux mineurs la nuit. Mécanisme anti-contournement : toute réinitialisation nécessite une vérification parentale. Résultats mesurables sur la durée d'usage. Le seul modèle qui agit côté terminal.
Premier État américain à imposer un couvre-feu légal. Couplé à l'accès parental aux messageries privées de l'enfant. Repose sur la coopération des plateformes.
Obligation de vérification d'âge pour toutes les plateformes. Amendes jusqu'à 10% du CA mondial (Ofcom). Avancée législative significative.
Modèle fondé sur l'esprit critique et la résilience numérique. Résultats solides à long terme sur la résistance aux fake news et aux manipulations en ligne.
App gouvernementale adossée à l'identité numérique nationale (TaxisNet). Vérification d'âge + blocage des RS à partir de 12 ans. Pilote en cours.
Obligations renforcées pour les plateformes : protection des mineurs, retrait de contenus, transparence. Même approche que le DSA européen.
Solution de vérification d'âge permettant de prouver qu'on a plus de 18 ans sans partager d'autres informations personnelles. Pilote avec France, Danemark, Grèce, Italie, Espagne.
Synthèse : Neuf pays analysés. Neuf approches différentes. Un angle mort commun : aucune n'agit côté terminal avec respect de la vie privée. La Chine l'a fait — au prix d'une surveillance d'État totale, incompatible avec le RGPD et les droits fondamentaux européens. Shieldy est la seule réponse qui atteint le même niveau de protection côté terminal — sans surveillance des contenus, sans identifiant d'État, avec le respect absolu du RGPD et de la vie privée de l'enfant.
SOS ÉCRANSLe tableau ci-dessous synthétise l'évaluation systématique de chaque type de réponse face aux douze défis principaux identifiés par le Rapport AN N°1770 et les données mondiales. L'évaluation porte sur l'efficacité réelle — non déclarée — de chaque approche. Les sources sont disponibles dans les sections précédentes et les deux annexes jointes.
| Défi identifié | Loi française | DSA / UE | Plateformes | Apps ctrl parental tierces | 🛡️ Shieldy |
|---|---|---|---|---|---|
| Accès -15 ans aux réseaux sociaux PPL Miller · Art.28 DSA |
◑ PPL en cours |
◑ En discussion |
✗ Auto-déclaration |
✗ Contournable |
✓ Bloqué côté terminal |
| Couvre-feu nocturne 22h–8h Reco 32 AN · Utah · Chine |
◑ Reco non appliquée |
✗ | ✗ Méditation à 22h |
◑ Schedulable, bypassable |
✓ Natif, niveau OS |
| Anti-contournement parental Reco 3 AN · p.263 |
✗ | ✗ | ✗ Modes désactivables |
✗ Prouvé p.263 AN |
✓ FamilyControls OS |
| Spirales algorithmiques Reco 11 AN · Art.28 DSA |
◑ Digital Fairness Act |
◑ Lent (années) |
✗ "Pour Toi" inchangé |
✗ Ne contrôle pas l'algo |
✓ Pas d'accès RS = pas d'algo |
| Contenus dangereux Suicide · TCA · Automutilation · Reco 9 |
◑ LCEN à modifier |
◑ Modération insuffisante |
✗ 2,6 min → suicide |
◑ Mots-clés partiel |
✓ Blocage catégoriel |
| Grooming / prédation 68% via messageries · IWF 2024 |
◑ Art. 227-22-2 CP |
◑ DSA Art.34 |
✗ Messageries non lues |
✗ | ◑ Hors périmètre légal (chiffrement E2E — contrainte commune à tous les outils). Couvert par la prévention · Annexe 2 |
| Cyberharcèlement 3018 réactif · Loi avr. 2023 |
◑ | ◑ Signaleurs confiance |
✗ Modération tardive |
✗ | ◑ Accès RS bloqué |
| Dégradation santé mentale Reco 15 · +60% antidépresseurs |
◑ Grande Cause Nat. |
✗ | ✗ Nié publiquement |
✗ | ✓ Réduction exposition |
| Formation parents / enseignants / ados Reco 18–23–26 AN |
◑ Reco en cours |
✗ | ✗ | — | ✓ 3 espaces + voir Annexe 2 |
SOS ÉCRANS
Shieldy — protection active côté terminal
Shieldy n'est pas une application de contrôle parental. La distinction est technique, et elle est fondamentale pour comprendre pourquoi Shieldy résout un problème que les apps tierces ne peuvent pas résoudre.
Une application de contrôle parental s'installe à côté du système. Elle peut être désinstallée, contournée par un VPN, ou supprimée si l'enfant connaît le code PIN parental — ce que la Commission d'enquête a documenté page 263 de son rapport. Shieldy est le navigateur lui-même. Quand Shieldy est le navigateur principal sur l'iPhone d'un enfant, il utilise FamilyControls — un entitlement Apple accordé à moins d'une centaine d'applications dans le monde, qui verrouille l'accès aux services au niveau du système d'exploitation. L'enfant ne peut pas désinstaller Shieldy sans autorisation parentale, pour la même raison qu'il ne peut pas désinstaller le système d'exploitation. → Architecture détaillée en Annexe 1ANNEXE 1
Shieldy est conçu pour évoluer avec l'enfant. La philosophie n'est pas la surveillance totale — c'est la protection calibrée par tranche d'âge, avec un relâchement progressif à mesure que l'enfant développe son autonomie.
Accès RS bloqué
Couvre-feu 20h–8h
Filtrage contenus adultes, violence, jeux d'argent
Liste blanche de sites autorisés
Aucune notification push
Accès RS bloqué (ou en liste blanche parent)
Couvre-feu 21h–7h
Filtrage contenus dangereux actif
Demandes d'accès de l'enfant → validation parent
Rapport hebdomadaire pour le parent
Couvre-feu 22h–8h (Reco 32 exacte)
RS accessibles en journée (décision parent)
Filtrage contenus illicites maintenu
Accès progressif selon maturité
Préparation à l'autonomie numérique à 18 ans
Shieldy contrôle l'accès — il ne surveille pas ce que l'enfant consulte. Pas de capture d'écran, pas d'historique transmis au parent. Conformité RGPD by construction.
iMessage, WhatsApp, Messenger restent accessibles. C'est un choix délibéré : lire les messages privés d'un enfant n'est pas de la protection — c'est de la surveillance, juridiquement impossible en Europe depuis l'abandon du "chat control". Or l'IWF (2024) documente que 68% des premiers contacts de grooming passent par ces messageries. Ce vide est réel. Il est couvert par la réponse éducative — l'Atelier ZenÉcran ANNEXE 2 — et non par la surveillance technique.
Aucun profil de l'enfant n'est constitué. Aucune donnée de navigation n'est transmise à des tiers ou à SOS ÉCRANS. Garanti par les statuts de l'association.
Gratuit pour toujours, garanti statutairement. Aucun modèle freemium. Aucun investisseur. Financé exclusivement par les dons sur HelloAsso.
Sur la question de la montée en charge : les décisions de filtrage sont prises à 100% sur l'appareil de l'enfant (on-device). L'architecture est construite sur des principes serverless et edge computing. La charge serveur est structurellement proche de zéro. Un déploiement à l'échelle nationale n'entraîne pas d'augmentation proportionnelle des coûts d'infrastructure — c'est une propriété de l'architecture, pas une promesse.
Shieldy est développé simultanément sur iOS et Android. Les deux plateformes offrent des mécanismes de protection différents mais complémentaires. La version Android sera architecturalement plus puissante : l'API Digital Wellbeing d'Android, Family Link et WebView native permettent une implémentation sans dépendre d'un entitlement accordé par une entreprise privée — ce qui garantit une pérennité structurellement supérieure. L'architecture technique détaillée des deux versions est disponible en Annexe 1ANNEXE 1.
Shieldy répond directement aux Recommandations 3, 32 et 33 du Rapport AN N°1770 : paramètres mineurs non désactivables · couvre-feu 22h–8h · labellisation navigateur natif fiable.
SOS ÉCRANSDes voix sincères et légitimes appellent à interdire le smartphone aux mineurs. Cette position est compréhensible. L'urgence est réelle. Mais le diagnostic est incomplet. Voici pourquoi.
Un smartphone avec Shieldy installé comme navigateur principal n'expose pas un enfant de 12 ans à des contenus suicidaires en 2,6 minutes. Le même smartphone avec TikTok, si. Ce n'est pas l'objet qui fait le danger — c'est l'accès non filtré à des plateformes conçues pour exploiter les vulnérabilités neurodéveloppementales des adolescents (Pr. Borst, Rapport AN p.88). Retirer l'objet sans contrôler l'accès déplace le risque, il ne l'élimine pas.
L'Australie a interdit les réseaux sociaux aux moins de 16 ans en novembre 2024. Les téléchargements de VPN ont explosé dans les semaines suivant l'annonce. Ce n'est pas une anecdote — c'est le mécanisme systématique. Les adolescents contournent les interdictions. Pas parce qu'ils sont malveillants, mais parce que leur cortex préfrontal — la zone de l'auto-régulation — n'est pas encore mature, quand les circuits dopaminergiques sont en pleine activité. La barrière doit être technique, pas déclarative.
Les Environnements Numériques de Travail (ENT) sont utilisés par les collégiens et lycéens pour leurs devoirs, leurs notes, les communications des enseignants. La Commission d'enquête note elle-même l'injonction contradictoire : on interdit le téléphone en classe et on demande à l'enfant de se connecter à Pronote depuis chez lui le soir (Rapport AN, p.265). Interdire le smartphone, c'est couper l'accès à l'école numérique sans alternative.
Le Président Delaporte l'a formulé sans détour : "Interdire, c'est admettre qu'on a renoncé à réguler les GAFAM." Si l'interdiction devient la réponse politique de référence, elle risque de soulager la pression sur les plateformes pour qu'elles se conforment au DSA. La vraie régulation — amendes de 6% du CA mondial, surveillance des algorithmes, transparence totale — est la seule qui change le comportement systémique.
« On peut créer toutes les fonctionnalités qu'on veut, mais tant qu'on ne connaît pas l'âge de la personne, elles sont inopérantes. »
Mme Chappaz · Audition Commission d'enquête AN · Rapport N°1770, p.208Notre lecture : L'interdiction du smartphone n'est pas la réponse. La protection technique côté terminal, la régulation réelle des plateformes, et l'éducation aux médias sont les trois réponses — simultanément. Ces trois niveaux ne sont pas en concurrence. Mais sans l'outil côté terminal, les deux autres restent des intentions.
SOS ÉCRANSAssociation loi 1901 · RNA W751283606
SOS ÉCRANS a été créée en 2026 par Emmanuel Klein pour garantir que les produits Shieldy et l'Atelier ZenÉcran restent gratuits pour les particuliers et les établissements scolaires. Les statuts de l'association l'y obligent. Aucune donnée personnelle n'est collectée. Aucune publicité. Aucun investisseur. Le financement est assuré exclusivement par les dons.
SOS ÉCRANSUn document de position qui ne dirait que ce qui fonctionne serait de la communication, pas de l'analyse. Voici l'état réel — sans euphémisme.
Note de transparence : La crédibilité de ce document tient à son honnêteté. Shieldy n'est pas encore distribué à des millions d'utilisateurs. C'est un projet qui a résolu les problèmes techniques fondamentaux — et qui invite les institutions à s'y associer pour passer à l'échelle. Ce document est le début de ce dialogue, pas la conclusion.
SOS ÉCRANS
SOS-Parents — la conversation que Shieldy ne peut pas avoir
Shieldy détecte un signal de grooming un mercredi soir. Le parent reçoit une alerte sur son téléphone. Il sait que quelque chose s'est passé. Il ne sait pas quoi dire à son enfant.
Aucun algorithme de détection, aussi précis soit-il, ne peut écrire cette conversation à la place du parent. Et pourtant, c'est de cette conversation que dépend l'efficacité de toute la protection technique : si l'enfant sent qu'il va être surveillé davantage et non compris, il se refermera — et cherchera des canaux que Shieldy ne peut pas voir.
« Le risque réel de Shieldy n'est pas technique — c'est qu'un parent installe un outil de détection sans maintenir le dialogue. Un enfant plus secret n'est pas un enfant plus protégé. »
Emmanuel Klein · Fondateur SOS ÉCRANS · Mai 2026Bloque l'accès. Détecte les comportements à risque. Applique le couvre-feu. Ne peut pas parler.
Éduque en classe. Construit l'esprit critique. Ne peut pas aider un parent à répondre à 23h.
Donne au parent la phrase exacte à dire. Explique pourquoi son enfant réagit ainsi. Fondé sur 30+ études scientifiques.
SOS-Parents est une plateforme d'orientation parentale fondée sur la littérature scientifique : neurosciences adolescentes (Blakemore, Steinberg), psychologie clinique (Siegel, Cyrulnik), théorie de l'attachement (Bowlby), résistance non-violente (Omer). Ce n'est pas un outil thérapeutique — c'est un outil de coaching relationnel concret.
Script 7 — "Il est collé à ses écrans"
Ce qu'il ne faut pas dire : "Donne-moi ce téléphone !"
Ce qu'il faut dire : "Les écrans sont conçus pour être addictifs. Ce n'est pas un manque de volonté. Comment trouver l'équilibre ?"
Fondement : Jensen (2015) — striatum dopaminergique adolescent
Script 8 — "Il est harcelé en ligne"
Ce qu'il ne faut pas dire : "Bloque-le." / Confisquer le téléphone (supprime les preuves)
Ce qu'il faut dire : "Ce qui se passe en ligne fait aussi mal que dans la vraie vie. Je suis de ton côté. On garde les preuves."
Orienter vers : 3018 — protocole pHARe — signalement école
Shieldy génère une alerte. Le rapport du dimanche matin signale un comportement inhabituel. Un bouton — "Comment lui en parler" — ouvre directement le script correspondant dans SOS-Parents : la phrase exacte, le mécanisme neurologique, la technique complémentaire. Cette intégration est la conséquence naturelle du fait que les deux outils ont été conçus par la même personne, pour le même enfant.
L'écosystème complet — ce que personne d'autre ne propose : Shieldy détecte · l'Atelier ZenÉcran prévient en classe · SOS-Parents guide la conversation · l'Observatoire National du Numérique mesure l'impact à l'échelle nationale. Quatre niveaux. Un seul acteur. Gratuit.
SOS ÉCRANSLe Rapport N°1770 de la Commission d'enquête TikTok est le diagnostic le plus précis jamais produit par le Parlement français sur l'urgence de protéger les enfants en ligne. Ses 43 recommandations sont rigoureuses. Ses constats sur l'inefficacité des outils actuels sont sans appel.
Mais un diagnostic aussi précis soit-il n'est pas une protection. Une recommandation aussi juste soit-elle n'est pas un outil. Une loi aussi bien rédigée soit-elle ne peut pas entrer dans le téléphone d'un enfant de 12 ans à 23h un jeudi soir.
Neuf pays ont essayé de résoudre ce problème. Aucun n'a trouvé la réponse qui combine efficacité côté terminal et respect de la vie privée. Les GAFAM connaissent le problème et ont choisi de ne pas le résoudre. Les États légifèrent et constatent le contournement.
En septembre 2025, j'ai commencé à coder parce que je n'avais pas trouvé d'outil satisfaisant pour mon propre enfant. En huit mois, ce projet est devenu une analyse exhaustive de toutes les solutions mondiales, un outil technique opérationnel, un programme d'éducation aux médias, et une association loi 1901.
La loi fixe les règles. Les plateformes résistent. Shieldy les applique là où l'enfant se trouve — sur son téléphone, à l'heure où il est seul face à un algorithme conçu pour exploiter ses fragilités.
Ces propositions ne sont pas des revendications. Ce sont les conclusions d'un travail de huit mois, que nous mettons librement à la disposition des pouvoirs publics, de l'ARCOM et des parlementaires qui souhaitent s'en saisir.
L'efficacité des futures lois dépend de la reconnaissance par les pouvoirs publics de ce que que la protection des enfants en ligne n'est pas résolue par la loi seule — et que le chaînon manquant existe déjà, développé par une association loi 1901, sans investisseur, sans collecte de données, avec l'entitlement Apple FamilyControls accordé.
Nous soumettons à l'ARCOM la proposition d'intégrer la catégorie "navigateur natif non-contournable" dans son référentiel de labellisation, pour permettre aux parents d'identifier les solutions qui protègent réellement. Nous restons disponibles pour toute expertise technique.
Nous suggérons aux parlementaires de distinguer, dans leurs communications publiques, les trois niveaux de protection — loi, plateformes, terminal — non pour minimiser le travail législatif, mais pour que les parents comprennent que la loi et l'outil sont complémentaires, pas substituables.
Emmanuel Klein
Fondateur, SOS ÉCRANS · Association loi 1901 · RNA W751283606
mr.klein.emmanuel24@gmail.com · shieldy.org
Deux annexes techniques jointes à ce document :
Annexe 1 — Architecture technique Shieldy (iOS FamilyControls · Android Digital Wellbeing · Fonctionnalités par tranche d'âge · Schéma d'architecture)
Annexe 2 — Programme Atelier ZenÉcran (6 modules · Méthodologie · Sources documentaires · Format de déploiement · Recommandations AN correspondantes)
SOS ÉCRANS
Documentation complète des choix technologiques, des couches logicielles et des sources mondiales ayant fondé le développement de Shieldy — navigateur de protection pour enfants.
SOS ÉCRANS
La distinction fondamentale que le rapport N°1770 n'a pas encore formulée — mais que les données de la page 263 impliquent — est celle-ci : toutes les solutions de contrôle parental existantes opèrent à côté du système d'exploitation. Shieldy opère à l'intérieur du système d'exploitation.
Une application de contrôle parental surveille ce que l'enfant fait sur son téléphone. Un navigateur contrôle ce à quoi l'enfant peut accéder. La distinction n'est pas cosmétique : elle détermine si la protection peut être contournée ou non.
« Ma fille a trouvé sur YouTube et TikTok comment supprimer le contrôle parental. »
Témoignage parent · Rapport AN N°1770 · p. 263Ce témoignage n'est pas une exception. Il décrit le résultat structurel de toute solution qui repose sur la coopération de l'enfant ou sur une couche logicielle accessible. FamilyControls, l'entitlement Apple qu'utilise Shieldy, est accordé par Apple directement — il verrouille l'accès au niveau du noyau iOS. L'enfant ne peut pas désactiver ce qu'il ne peut pas atteindre.
BUILD SUCCEEDED — Mai 2026. L'entitlement FamilyControls a été accordé par Apple après examen du dossier de conformité. La pile complète est opérationnelle sur iPhone physique. Le couvre-feu, le blocage des catégories et le verrouillage de l'app fonctionnent conformément aux spécifications de la Recommandation 32.
SOS ÉCRANS
FamilyControls n'est pas une API publique. C'est un entitlement — une autorisation explicitement accordée par Apple après examen du cas d'usage. Apple refuse cette autorisation aux applications qui utilisent ces capacités à des fins de surveillance ou de collecte de données. Shieldy l'a obtenu parce que son architecture répond strictement aux critères d'Apple : protection de l'enfant, sans surveillance du contenu, sans collecte de données.
Namespace FamilyControls (iOS 15+). Fournit l'autorisation pour l'ensemble de la chaîne de protection parental au niveau système. Sans cet entitlement, aucune des couches ci-dessous ne fonctionne. L'entitlement est lié au compte développeur et à l'identifiant d'app — impossible à transférer à une autre app.
Framework ManagedSettings (iOS 15+). Permet d'imposer des restrictions sur : (1) les applications native (blocage de TikTok, Instagram, Snapchat, etc.), (2) les catégories de contenu web via WebContentFilter, (3) les paramètres de l'appareil (désactivation des achats in-app, restrictions des comptes). Les restrictions survivent aux redémarrages de l'appareil.
Extension DeviceActivityMonitor (iOS 15+). S'exécute en arrière-plan dans un processus isolé, indépendant de l'app principale. Déclenche des callbacks aux plages horaires configurées par le parent. Implémente le couvre-feu 22h00–08h00 conforme à la Recommandation 32 sans aucune intervention du parent au moment de l'exécution. Résilient aux coupures réseau et aux passages en mode avion.
WKWebView est le moteur WebKit natif d'Apple, utilisé par Safari lui-même. WKContentRuleList permet d'appliquer des règles de blocage déclaratives (format JSON compilé) directement dans le moteur de rendu — avant même que la requête réseau soit émise. Aucune donnée ne quitte l'appareil pour décider si un contenu est bloqué. Les règles sont mises à jour localement via une liste de domaines maintenue par SOS ÉCRANS.
AuthorizationCenter.shared.requestAuthorization(for: .individual) : déclenche le dialogue système d'Apple demandant au parent de s'authentifier (Face ID / Touch ID) pour activer les contrôles familiaux. C'est la vérification parentale de facto — le parent doit physiquement autoriser l'activation sur l'appareil de l'enfant.
Le filtrage de contenu dans Shieldy est déclaratif et local. Contrairement à un proxy ou un VPN familial qui inspecte le trafic réseau, WKContentRuleList compile un ensemble de règles JSON directement dans le moteur WebKit. Ces règles définissent des motifs d'URL (domaines, sous-chemins) à bloquer. Le moteur WebKit évalue la correspondance avant d'émettre la requête réseau.
Ce que Shieldy ne fait pas — et pourquoi c'est une garantie légale, pas un choix commercial :
Shieldy ne lit jamais le contenu des pages. Il ne déchiffre pas le trafic HTTPS. Il ne constitue pas de profil comportemental. Il ne transmet aucune donnée à un serveur externe. Cette architecture est conforme aux exigences de la CNIL et au RGPD par construction — et non par politique de confidentialité modifiable.
iOS 15.0 minimum requis pour FamilyControls.
iOS 16+ recommandé pour toutes les fonctionnalités DeviceActivityMonitor.
iPhone physique requis (simulateur insuffisant pour test FamilyControls).
Compatibilité testée sur iPhone SE (2ème génération), iPhone 13, iPhone 14, iPhone 15.
SOS ÉCRANS
Android présente une propriété fondamentale qu'iOS n'a pas : les APIs de contrôle parental sont ouvertes et documentées publiquement. Là où Apple exige un entitlement accordé après examen, Android propose un cadre standard dont n'importe quel développeur peut tirer parti. Cela crée paradoxalement une protection plus robuste — car elle ne dépend pas d'une décision commerciale d'une seule entreprise.
L'avantage structurel Android : sur iOS, la protection dépend de l'entitlement FamilyControls, accordé par Apple. Si Apple modifie sa politique commerciale, l'entitlement peut être retiré. Sur Android, les APIs Digital Wellbeing, Family Link et AccessibilityService sont des composants du système d'exploitation — indépendants de toute décision commerciale de Google sur les applications tierces.
Fournit l'accès aux données de temps d'utilisation par application (UsageStatsManager) et permet de configurer des limites d'application via AppOpsManager. Contrairement à iOS où tout passe par FamilyControls, Android permet une granularité fine : limiter l'usage d'une application spécifique à N minutes par jour sans bloquer d'autres applications. Utilisé pour implémenter les plages de couvre-feu et les budgets de temps par catégorie d'usage.
API de supervision parentale fournie par Google Play Services. Permet au parent de gérer à distance les applications installées, les achats, les paramètres de localisation et les restrictions de contenu. Fonctionne via un compte Google supervisé — l'enfant utilise un compte Google enfant lié au compte parent. Plus documenté et stable que l'équivalent iOS pour les mises à jour over-the-air des règles parental.
Basé sur le moteur Chromium. Contrairement au WKWebView d'iOS, le WebView Android expose une API WebViewClient.shouldInterceptRequest() qui permet d'intercepter et bloquer des requêtes réseau avant leur émission, avec une granularité plus fine que les Content Rules iOS. L'implémentation Shieldy Android utilise cette API pour un filtrage déclaratif analogue à WKContentRuleList, mais avec une capacité de mise à jour dynamique des règles sans redémarrage.
Sur les appareils gérés (école, entreprise), DevicePolicyManager fournit un niveau de contrôle encore plus complet que FamilyControls iOS : désactivation du mode développeur, blocage du sideloading d'applications, restriction des paramètres systèmes. Pour les établissements scolaires, c'est la brique la plus robuste — elle supprime la possibilité de contournement par réinitialisation de l'appareil (contrairement à la Chine qui connaît ce problème, cf. Rapport p. 279).
AccessibilityService permet de détecter les interactions utilisateur à l'échelle du système (ouverture d'applications, navigation dans les paramètres). Utilisé pour détecter les tentatives de désinstallation ou de modification des paramètres de contrôle parental. Sur Android, cette approche est légale et techniquement plus accessible qu'un équivalent iOS. Elle est complétée par PackageInstallObserver pour surveiller l'installation d'applications potentiellement contournantes (VPN tiers).
| Fonctionnalité | iOS (Shieldy) | Android (en développement) |
|---|---|---|
| Couvre-feu 22h–08h (Reco 32) | DeviceActivityMonitor — opérationnel | UsageStatsManager + AlarmManager — en développement |
| Verrouillage non-désinstallable | FamilyControls entitlement — opérationnel | DevicePolicyManager (admin) — spécifié |
| Filtrage web sans lecture de contenu | WKContentRuleList — opérationnel | WebViewClient.shouldInterceptRequest — spécifié |
| Blocage apps natives (TikTok, etc.) | ManagedSettings — opérationnel | AppOpsManager + Family Link — spécifié |
| Détection contournement | Structurelle (entitlement OS) | AccessibilityService — plus explicite, plus puissant |
| Mise à jour règles de filtrage | Recompilation WKContentRuleList | Dynamique (shouldInterceptRequest) |
| Déploiement établissements scolaires | MDM via Configurator | DevicePolicyManager — supérieur (zero-touch) |
SOS ÉCRANS
La recherche en neurosciences du développement confirme que le cortex préfrontal — siège de l'autorégulation, du jugement et de la résistance à l'impulsivité — n'est pas pleinement mature avant 25 ans. Les circuits dopaminergiques, eux, atteignent leur pic d'activité à l'adolescence. Shieldy module son niveau de restriction en fonction de cette réalité biologique, pas d'une convention arbitraire.
Liste blanche stricte — seules les URLs explicitement approuvées par le parent sont accessibles. Toute page hors liste blanche affiche une page neutre avec option de demander au parent d'ajouter le site. Aucun moteur de recherche généraliste accessible par défaut.
Blocage de toutes les catégories de réseaux sociaux, plateformes vidéo non filtrées, forums, systèmes de messagerie instantanée. La liste de blocage est compilée localement — mise à jour hebdomadaire par SOS ÉCRANS.
Fenêtre de navigation configurable par le parent (ex : 16h–19h uniquement). En dehors de la fenêtre, l'app Shieldy affiche un écran de verrouillage avec l'heure de réouverture. Le parent peut ouvrir une session temporaire depuis son propre appareil.
Chaque tentative d'accès à un site bloqué génère une notification optionnelle sur l'appareil du parent (configurable). Le parent voit le domaine tenté, pas le contenu de la page. Aucune capture d'écran n'est transmise.
Mode liste noire — toutes les URLs sont accessibles sauf les catégories explicitement bloquées. Catégories bloquées par défaut : réseaux sociaux (Instagram, TikTok, Snapchat, X), sites pour adultes, plateformes de jeux en ligne non supervisées, marchés de cryptomonnaies, sites de rencontres.
Google SafeSearch et Bing SafeSearch forcés au niveau de l'URL de requête — indépendamment du paramètre défini dans le compte Google de l'enfant. DuckDuckGo disponible avec mode safe. YouTube accessible uniquement en mode Restricted.
Couvre-feu standard 21h30–08h00. Plage du midi configurable (coupure 12h30–13h30 recommandée pour le temps scolaire). Le parent peut accorder des extensions ponctuelles depuis son appareil.
L'enfant peut demander l'accès à un site bloqué. La demande est transmise au parent avec le nom de domaine (pas le contenu). Le parent approuve ou refuse depuis son appareil. L'historique des demandes est consultable par le parent — mais pas transmis à SOS ÉCRANS.
Accès au web général. Seules les catégories explicitement illégales pour les mineurs restent bloquées (sites pour adultes, jeux d'argent, drogues). Les réseaux sociaux sont accessibles — mais exclusivement via le navigateur Shieldy (pas via les applications natives).
Notification douce à 30, 60 et 90 minutes de navigation continue. Ces rappels sont informatifs — ils ne bloquent pas l'accès. Conformes aux préconisations de l'OMS sur le temps d'écran adolescent (< 2h de loisir numérique par jour).
22h00–08h00 par défaut. Configurable entre 21h00 et 23h00. Le couvre-feu est appliqué par DeviceActivityMonitor (iOS) ou AlarmManager (Android) — indépendant de la connexion réseau et du fait que l'app soit ouverte ou non. Le parent peut désactiver temporairement via authentification biométrique.
À cet âge, l'adolescent peut voir le résumé de sa navigation (domaines, durées — pas le contenu). L'objectif est de construire l'autoconscience numérique, pas la surveillance. Cette fonctionnalité est optionnelle et activée uniquement avec l'accord de l'adolescent.
SOS ÉCRANS
Le développement de Shieldy s'est fondé sur un corpus de plusieurs milliers de sources — documentation technique officielle, recherche académique peer-reviewed, code source ouvert, rapports gouvernementaux et expérimentations mondiales. Ce document en présente les sources majeures par catégorie.
SOS ÉCRANS
SOS ÉCRANS
Le Rapport N°1770 et le contexte réglementaire européen (abandon du règlement "chat control" par la Commission en 2024) convergent vers une position claire : scanner le contenu des communications pour protéger les enfants est juridiquement impossible en Europe et techniquement non scalable. Shieldy a choisi l'architecture inverse : contrôler l'accès sans jamais lire le contenu.
Principe fondateur : La protection de l'enfant ne justifie pas la surveillance de l'enfant. Ces deux objectifs ne sont pas les deux faces d'un même compromis — ils sont structurellement distincts. Shieldy protège par le contrôle d'accès. D'autres systèmes protègent (ou prétendent protéger) par la surveillance. Ce sont deux architectures différentes avec des implications légales et éthiques différentes.
| Ce que Shieldy ne fait pas | Pourquoi (technique) | Pourquoi (légal / éthique) |
|---|---|---|
| Lire le contenu des pages web | WKContentRuleList évalue les URLs, pas le HTML | RGPD art. 5 — minimisation des données |
| Capturer des screenshots | Aucune API de capture dans la pile | Interdiction légale de surveillance des mineurs sans consentement explicite |
| Lire les messageries natives (iMessage, WhatsApp) | Ces apps opèrent hors du navigateur Shieldy | Chiffrement de bout en bout — déchiffrement impossible et illégal |
| Collecter des données de navigation | Aucun SDK analytics, aucun serveur de logs | RGPD + règles Apple App Store pour apps enfants |
| Constituer un profil comportemental | Pas de base de données utilisateur | CNIL — données de mineurs soumises à consentement parental |
| Transmettre des données à des tiers | Aucune API tierce de tracking dans la pile | Statuts de l'association : aucune valorisation des données |
| Fonctionner comme un VPN réseau | Pas de profile VPN installé sur l'appareil | VPN = contournable. Navigateur = non-contournable |
Shieldy bloque l'accès web aux réseaux sociaux. Il ne peut pas intervenir dans les messageries natives d'iOS et d'Android (iMessage, WhatsApp, Telegram, Signal). L'IWF 2024 indique que 68% des premiers contacts à risque passent par ces messageries.
Cette limite est structurelle et non-contournable sans violer le chiffrement de bout en bout — ce que le règlement "chat control" européen proposait et que le Parlement européen a rejeté. Shieldy ne cherche pas à lire les messages privés. L'approche adoptée pour couvrir ce vide est éducative : l'Atelier ZenÉcran (voir Annexe 2) inclut un module "Premiers dangers en ligne" spécifiquement centré sur la reconnaissance des comportements de grooming dans les messageries.
Note d'honnêteté : Une solution qui prétend couvrir les messageries natives chiffrées ment à ses utilisateurs. Soit elle ne les lit pas vraiment, soit elle viole le droit européen. Nous préférons documenter notre limite plutôt que la masquer.
Shieldy ne collecte aucune donnée personnelle identifiable. L'ensemble du traitement (règles de filtrage, historique de navigation) reste sur l'appareil de l'enfant. Aucun transfert vers des serveurs tiers. Pas de cookies. Pas d'identifiant publicitaire. Conformité "by construction" — non par politique de confidentialité modifiable.
Architecture conforme aux recommandations de la CNIL sur le traitement des données de mineurs : consentement parental requis à l'activation, minimisation stricte des données, droit à l'effacement garanti par l'absence de stockage distant. La liste de blocage des domaines est la seule donnée "externe" — elle est publique et non personnelle.
SOS ÉCRANS
Shieldy est opérationnel sur iOS. FamilyControls est accordé. Le couvre-feu fonctionne. Le filtrage de contenu est actif. Ce que nous documentons ici, c'est l'écart entre ce qui est opérationnel et ce que la protection complète d'un enfant exige. Cet écart est finançable. Il ne remet pas en cause ce qui est déjà fonctionnel.
✓ FamilyControls entitlement accordé (mai 2026)
✓ Couvre-feu 22h–08h automatique (DeviceActivityMonitor)
✓ Filtrage de catégories (réseaux sociaux, contenu adulte)
✓ Verrouillage non-désinstallable par l'enfant
✓ Interface parent SwiftUI (configuration des plages et catégories)
✓ Zero collecte de données — conformité RGPD
✓ Build testé sur iPhone physique (SE2, iPhone 13, 14, 15)
⟳ Liste de domaines bloqués — première version (Q2 2026)
⟳ Interface parent V2 — notifications de tentatives d'accès
⟳ Mode 11-14 ans — gestion des demandes d'accès enfant
⟳ Portail web parent (accès depuis navigateur desktop)
⟳ SafeSearch forcé (Google, Bing) — implémentation URL-level
⟳ YouTube Restricted Mode — forçage via paramètre URL
◇ Version Android complète (Digital Wellbeing API + WebView)
◇ Mise à jour automatique de la liste de domaines (serveur léger SOS ÉCRANS)
◇ Mode établissement scolaire (MDM / DevicePolicyManager)
◇ Audit de sécurité indépendant (cabinet spécialisé)
◇ Rapport hebdomadaire parent (temps par catégorie — non-identifiant)
◇ Intégration e-Enfance / 3018 (bouton signalement depuis l'app enfant)
◇ API ARCOM (labellisation Reco 33 — après parution du référentiel)
◇ Traduction (EN, DE, ES) pour déploiement Europe
Ce document est la première fois que l'état réel du projet est documenté de manière aussi précise à l'intention d'interlocuteurs institutionnels. La transparence sur ce qui reste à faire est la condition de la crédibilité sur ce qui est déjà fait.
| Poste | Profil | Durée estimée | Priorité |
|---|---|---|---|
| Développeur iOS senior (FamilyControls) | SwiftUI + Apple APIs | 6–9 mois plein temps | Critique |
| Développeur Android | Kotlin + Digital Wellbeing | 6–9 mois plein temps | Haute |
| Responsable liste de domaines | Veille, catégorisation | Permanent (temps partiel) | Haute |
| Audit sécurité indépendant | Cabinet spécialisé | 3–4 semaines | Moyenne |
| Déploiement établissements (MDM) | Ingénieur systèmes | 3 mois | Moyenne |
SOS ÉCRANS
Ce chapitre répond à la question la plus concrète que tout parent et tout financeur pose : "Si mon enfant ouvre telle application, Shieldy la voit ?" La réponse honnête est nuancée. La voici, complète, avec les stratégies complémentaires documentées.
Shieldy est un navigateur. Il contrôle l'accès aux sites web via WKWebView. Les applications natives — celles installées depuis l'App Store et qui fonctionnent indépendamment du navigateur — sont hors du périmètre de lecture de contenu. Elles peuvent être bloquées via ManagedSettings, mais leur contenu n'est pas lu.
| Application | Usage mineurs France | Shieldy — couverture | Niveau risque | Note |
|---|---|---|---|---|
| TikTok (app native) | ~8M mineurs | ⊘ Bloquable | CRITIQUE | ManagedSettings bloque l'app. La version web TikTok.com est accessible et couverte dans le navigateur Shieldy. |
| Snapchat (app native) | ~8M mineurs (#1 ados) | ⊘ Bloquable | CRITIQUE | Pas de version web fonctionnelle pour les DM. Blocage via ManagedSettings = accès impossible à l'app. |
| Instagram (app native) | ~5M mineurs | ⊘ Bloquable | ÉLEVÉ | Instagram.com fonctionne en version web dans Shieldy — DM accessibles via web = couverts par le navigateur. |
| ~6M mineurs | ✗ Hors périmètre | ÉLEVÉ | App native + chiffrement E2E. Ni lecture ni blocage natif. Stratégie complémentaire → voir § B. | |
| iMessage | ~3M mineurs iPhone | ✗ Hors périmètre | MOYEN | Système natif iOS. Chiffrement E2E. Stratégie complémentaire → voir § B (iCloud) et § D (Communication Limits). |
| Discord | ~3M mineurs | ⊘ Bloquable | ÉLEVÉ | Discord.com accessible en version web dans Shieldy. Chat des serveurs publics = couvert via navigateur. |
| YouTube | ~10M mineurs | ✓ Couvert | ÉLEVÉ | YouTube.com dans Shieldy avec SafeSearch forcé et YouTube Restricted Mode activé via paramètre URL. |
| Roblox | ~4M mineurs | ⊘ Bloquable | CRITIQUE | App native. Chat intégré = hors périmètre lecture. Bloquable via ManagedSettings. |
| Yubo | ~2M mineurs | ⊘ Bloquable | CRITIQUE | App de rencontre ados, app native. Blocage recommandé pour les 6-15 ans. Yubo.live bloqué en liste noire. |
| Character.AI | ~500K mineurs | ✓ Couvert | CRITIQUE | Character.ai accessible via navigateur. Conversations dans le navigateur Shieldy = domaine bloquable. Risque documenté 2024-2025 (cas de détresse). |
| Kik | ~200K mineurs | ⊘ Bloquable | CRITIQUE | Anonymat total, pas de vérification téléphone. Favori des prédateurs. Bloquable via ManagedSettings + liste noire domaine. |
| Pronote / ENT | ~12M élèves | ✓ Accessible | MOYEN | Pronote Web accessible dans Shieldy. L'accès scolaire fonctionne normalement. Messagerie ENT lisible dans le navigateur. |
Légende : ✓ Couvert = accessible et couvert dans le navigateur Shieldy · ⊘ Bloquable = app native bloquable via ManagedSettings (pas de lecture de contenu) · ✗ Hors périmètre = ni lecture ni blocage possible sans violer le chiffrement E2E
SOS ÉCRANS
L'IWF 2024 indique que 68% des premiers contacts à risque passent par WhatsApp ou iMessage — deux canaux structurellement hors du périmètre d'un navigateur. La réponse honnête est de documenter trois stratégies complémentaires, légales, et architecturalement cohérentes avec la philosophie de SOS ÉCRANS.
Principe : les sauvegardes iCloud de l'iPhone enfant — activées par défaut pour les comptes Apple configurés par les parents — contiennent les messages iMessage, les SMS, et les logs d'appels. Un parent ayant accès au compte Apple de son enfant mineur peut accéder légalement à cette sauvegarde.
Ce que ça couvre : iMessage (archives), SMS/MMS (archives), historique d'appels, liste des contacts récents. WhatsApp sauvegarde également sur iCloud si l'option est activée dans l'app.
Ce que ça ne couvre pas : les messages Snapchat (disparaissent par conception), les messages Signal (chiffrement E2E, sauvegarde non disponible), les messages en temps réel (analyse différée uniquement).
Cadre légal : le parent est titulaire du compte Apple d'un enfant de moins de 13 ans (règle App Store). Pour les 13-17 ans, Family Sharing avec compte enfant : le parent peut accéder aux données du compte via iCloud.com en tant qu'organisateur du groupe familial. Autorité parentale, art. 371-1 Code civil.
Limitation critique : analyse réactive (après incident), pas préventive. Snapchat : pas de sauvegarde. Signal : chiffrement côté device, sauvegarde chiffrée inaccessible. L'outil de référence qui utilise cette méthode en production est Bark (USA), qui couple l'analyse iCloud avec un agent MDM iOS. Bark a annoncé une expansion européenne pour 2026 — sa conformité RGPD reste à établir.
Positionnement Shieldy : cette stratégie est documentée ici à titre informatif. Elle n'est pas intégrée à la version actuelle de Shieldy — son implémentation RGPD-conforme nécessite un avis juridique spécifique sur la distinction entre sauvegarde familiale et surveillance de communications.
Principe : si lire le contenu des messageries chiffrées est juridiquement impossible en Europe, il est possible de détecter des signaux comportementaux qui indiquent qu'une situation anormale se produit — sans lire un seul message.
Les 5 couches techniques documentées (ARCHITECTURE.md, 13 mai 2026) :
Couche 1 — Pré-filtre comportemental (0€, pas d'IA) : heure d'envoi des messages, fréquence anormale, volume inhabituel. Source : BF-PSR Framework (Université de São Paulo) — 7 signaux comportementaux de grooming, aucune IA nécessaire.
Couche 2 — Détection de toxicité (gratuit) : Perspective API (Google Jigsaw) — analyse le texte visible dans le navigateur Shieldy. 500 millions de requêtes/jour sur les plateformes mondiales. Comprend le français natif.
Couche 3 — Détection de grooming par séquence (open source Apache 2.0) : Roblox Sentinel, utilisé sur 100 millions d'utilisateurs. Détecte l'évolution du ton sur 10-20 messages (confiance forcée → isolation → demandes intimes). Adapté au français via CamemBERT.
Couche 4 — Détection de manipulation émotionnelle (dataset ACL 2024) : MentalManip — 4 000 dialogues annotés. Détecte les techniques de manipulation préalables aux actes explicites (isolement, love bombing, culpabilisation). Voit ce que les filtres de mots-clés ne voient pas.
Couche 5 — Validation croisée (Tuteliq SDK, MIT, iOS 15+) : pour les cas incertains, deuxième avis d'un modèle spécialisé. 1 000 requêtes gratuites/mois — suffisant pour la phase bêta.
Principe de traitement : toutes les analyses s'effectuent localement sur l'appareil de l'enfant. Seules les alertes (niveau + app source + horodatage) sont transmises au parent. Le texte brut ne quitte jamais l'appareil. C'est la différence structurelle avec Bark, qui envoie le contenu à ses serveurs.
Principe : iOS propose nativement, via Screen Time et ManagedSettings, une fonctionnalité "Limites de communication" qui permet au parent de restreindre les appels téléphoniques, FaceTime et iMessage de l'enfant aux contacts uniquement autorisés. Cette fonctionnalité s'applique au niveau système, indépendamment du navigateur.
Ce que ça couvre : appels téléphoniques d'inconnus (liste blanche de numéros autorisés), FaceTime (personnes du carnet de contacts uniquement), iMessage (personnes du carnet de contacts uniquement pendant et hors du temps scolaire, configurable séparément). Particulièrement efficace pour bloquer les tentatives de premier contact d'un prédateur via un numéro inconnu.
Ce que ça ne couvre pas : WhatsApp, Snapchat, Discord, et toutes les messageries tier-applicatives — elles ont leur propre système de contacts, indépendant du carnet iOS. Un inconnu peut contacter l'enfant via ces apps même si Communication Limits est activé.
Implémentation Shieldy : ManagedSettings.communicationLimits — configuré depuis l'interface parent lors du setup initial. Le parent désigne les contacts autorisés via FamilyActivitySelection. Pour les 6-10 ans : liste blanche stricte (famille uniquement). Pour les 11-14 ans : contacts du carnet approuvé par le parent. Pour les 15-18 ans : aucune restriction recommandée (autonomie progressive).
Note sur iOS 26 : Apple a annoncé lors de la WWDC 2025 des fonctionnalités de PermissionKit qui permettront au parent d'être notifié quand un inconnu contacte l'enfant sur iMessage. Cette fonctionnalité native — attendue en production iOS 26 — comble partiellement le gap des messageries natives pour les appareils Apple. Elle n'existe pas encore sur Android.
Source IWF 2024 : 68% des premiers contacts à risque passent par WhatsApp ou iMessage. Communication Limits couvre la partie iMessage de cette statistique. La partie WhatsApp reste structurellement hors de portée des outils légaux en Europe — et est couverte par la stratégie éducative (Atelier ZenÉcran, module "Premiers dangers").
Synthèse honnête : Shieldy couvre l'accès web (navigateur), le blocage d'apps natives (ManagedSettings), le filtrage des contacts inconnus (Communication Limits), et la détection comportementale locale (5 couches). Il ne couvre pas — et ne prétend pas couvrir — le contenu chiffré des messageries E2E. Cette limite est structurelle, légale, et partagée par l'ensemble des acteurs européens du secteur. La réponse à ce vide est éducative, pas technique.
SOS ÉCRANS
Programme complet de prévention numérique pour les 6–18 ans. Six modules, trois niveaux, seize livrables pédagogiques. Aligné sur les Recommandations 18, 19, 20, 22, 23 et 26 du Rapport AN N°1770.
SOS ÉCRANS
« Aucune protection technique, si robuste soit-elle, ne remplace la capacité d'un enfant à reconnaître le danger, à le nommer, et à en parler à un adulte. »
Principe pédagogique fondateur · Atelier ZenÉcran · SOS ÉCRANSShieldy protège les enfants de ce qu'ils ne voient pas. L'Atelier ZenÉcran leur apprend à protéger ce que Shieldy ne peut pas atteindre : leur jugement, leur capacité à distinguer un lien de confiance d'une manipulation, leur droit de dire non.
L'exemple des messageries natives illustre parfaitement cette complémentarité. Shieldy bloque l'accès aux réseaux sociaux via le navigateur. Il ne peut pas lire iMessage ou WhatsApp — et ne le doit pas. Mais l'IWF 2024 indique que 68% des premiers contacts à risque passent précisément par ces messageries. La réponse ne peut pas être technique : elle doit être éducative. C'est l'Atelier.
| Reco | Ce que préconise le rapport | Ce que l'Atelier ZenÉcran fournit |
|---|---|---|
| Reco 18 | Éducation aux médias numériques dès le CP, dans le cadre de l'EMC | Module 1 "Les écrans et moi" — 3 niveaux, de 6 ans |
| Reco 19 | Formation à l'usage responsable : réseaux sociaux, algorithmes, image de soi | Modules 3, 4 et 5 (algorithmes, image, harcèlement) |
| Reco 20 | Intervention d'acteurs extérieurs en classe (associations spécialisées) | Format "animateur certifié SOS ÉCRANS" — déployable à la demande |
| Reco 22 | Repères d'âges dans le carnet de santé (signaux d'alerte par tranche) | Espace Parents : guide par tranche d'âge, signaux d'alerte cliniques |
| Reco 23 | Formation des parents via PMI, sage-femmes et médecins de famille | Séance parents déployable, ressources libres téléchargeables |
| Reco 26 | Formation continue des enseignants aux risques numériques | Espace Enseignants : kits complets, obligations légales, procédures |
| Reco 27 | Repérage précoce des troubles psychiques liés au numérique | Grille signaux d'alerte (clinique + comportemental) dans Espace Parents |
Les programmes d'éducation aux médias qui fonctionnent partagent une propriété commune : ils informent sans moraliser. Les adolescents rejettent systématiquement les discours culpabilisants sur l'usage des écrans — non par inconscience du risque, mais parce qu'ils perçoivent l'injonction comme un contrôle déguisé.
L'Atelier ZenÉcran applique une règle simple : présenter les données scientifiques, décrire les mécanismes, ne pas prescrire les comportements. Un adolescent qui comprend que le fil "Pour Toi" de TikTok maximise son temps de présence par ingénierie comportementale fait des choix différents — non parce qu'on lui a dit que TikTok est mauvais, mais parce qu'il comprend pourquoi TikTok est conçu pour le garder.
Note sur l'appellation "ZenÉcran" : Le nom n'implique pas une posture de sérénité face aux écrans, ni un jugement normatif sur leur usage. Il désigne l'objectif : construire un rapport conscient et équilibré — pas une relation de peur ou de rejet. La sérénité qui vient de la connaissance, pas de l'ignorance.
SOS ÉCRANS
Ce module est le point d'entrée de tous les niveaux. Il établit le fait que chaque personne a une relation unique avec les écrans — sans jugement sur cette relation. L'objectif n'est pas de culpabiliser mais de rendre conscient.
Question centrale : "Qu'est-ce qui se passe dans mon corps et dans ma tête quand je regarde un écran ?"
Exercice : le thermomètre des émotions. L'enfant place des cartes-émotion sur une ligne de temps (avant / pendant / après l'usage d'un écran). Dessin libre.
Notion centrale : les écrans peuvent donner du plaisir et de la frustration — les deux sont normaux.
Question centrale : "Combien de temps je pense passer sur mon téléphone ? Combien est-ce que j'en passe vraiment ?"
Exercice : estimation personnelle vs. données Screen Time. Analyse des 5 applications les plus utilisées. Discussion : "Qu'est-ce que je sacrifie pour ce temps ?"
Notion centrale : biais de perception du temps — le cerveau adolescent sous-estime l'usage de 40% en moyenne.
Question centrale : "Pourquoi j'ouvre mon téléphone quand je m'ennuie — et qu'est-ce que l'ennui m'apportait avant ?"
Exercice : cartographie des déclencheurs. En binôme, identifier les 5 situations où l'on ouvre le téléphone sans décision consciente.
Notion centrale : tolérance à la frustration et cortex préfrontal — données neuroscientifiques présentées sans condescendance.
Ce module couvre les risques fondamentaux : le contact non souhaité d'un inconnu, la demande de secret, les images intimes. Il ne cherche pas à provoquer la peur — il donne les mots pour nommer ce qui se passe et les réflexes pour réagir.
"Les règles du jeu en ligne" — analogie avec les règles de sécurité dans la rue. Je ne parle pas à un inconnu sur le jeu vidéo comme je ne monte pas dans la voiture d'un inconnu.
Jeu de rôle : scénarios simples de refus. "Si quelqu'un sur mon jeu me demande mon prénom, je dis ?"
Grooming — les 5 étapes : contact / amitié / isolement / secret / demande. Présentation factuelle des étapes de manipulation, sans dramatisation.
Exercice : analyse de 3 scénarios fictifs. "À quelle étape la manipulation commence-t-elle ?"
Sextorsion et NCII (Non-Consensual Intimate Images) — cadre légal, recours, signalement. Ce que la loi dit. Ce que les plateformes font (et ne font pas). Ce que Cybermalveillance.gouv.fr permet.
Discussion ouverte sur le consentement numérique et la permanence de l'image en ligne.
SOS ÉCRANS
Note : module non adapté pour les 6–10 ans (notion d'algorithme hors de portée à cet âge). Un exercice de remplacement "les images que je vois" est proposé en option.
Qu'est-ce qu'un algorithme de recommandation ? Explication simple : une machine qui observe ce que je regarde longtemps, et qui m'en montre plus pour que je reste.
Exercice : "Ma boîte noire". Chaque élève liste les 5 dernières vidéos regardées sur YouTube ou TikTok. En groupe : identifier le "schéma" — qu'est-ce que l'algorithme a compris sur moi ?
Donnée centrale : 2,6 minutes. Le temps moyen avant qu'un compte mineur reçoive une vidéo sur le suicide sur TikTok (CCDH, 2022). Présentée factuellement, sans dramatisation.
L'ingénierie de l'attention — présentation des techniques : autoplay, scroll infini, notification push, variable reward (Skinner box). Ces mécanismes sont documentés publiquement dans les documents internes des plateformes (Facebook Files, rapports KPR/NPR sur TikTok).
Exercice : "Qui décide ce que je vois ?" — 20 minutes d'observation active sur son propre compte. Identifier 3 décisions algorithmiques conscientes dans le fil.
Discussion : est-il possible de "battre" l'algorithme ? Quelles stratégies existent (compte vierge, historique vidé, signal explicite de désintérêt) ?
Objectif : comprendre que ce qu'on voit en ligne n'est pas la réalité, et que le cerveau adolescent fait difficilement la distinction.
Exercice : comparaison de 5 paires d'images "photo naturelle / photo filtrée" du même sujet. Identification des modifications. Discussion : "Est-ce que tu aurais reconnu les différences sans qu'on te le dise ?"
Donnée centrale : 39 secondes. La fréquence à laquelle TikTok recommande des contenus sur l'apparence corporelle à un compte mineur (CCDH, 2022).
"Facebook knows" — présentation des données internes Meta (Facebook Files) montrant que l'entreprise savait que Instagram aggravait les troubles de l'image chez les adolescentes. Pas de morale : exposé factuel des documents.
Discussion : "Si les plateformes savent, pourquoi ne changent-elles pas ?" — analyse des incitations économiques vs. bien-être utilisateur.
Exercice : "Mon feed dans 6 mois" — si je continue à voir ce type de contenu tous les jours, à quoi ressemblera mon rapport à mon propre corps ?
SOS ÉCRANS
Sécurité clinique — Trauma-Informed Design. Toutes les questions de ce module appliquent les règles du design sensible au trauma. Les élèves analysent des cas fictifs (distance projective) et disposent en permanence d'une option de sortie ("Je préfère ne pas répondre") pour garantir qu'aucun élève victime ne soit re-traumatisé publiquement. L'animateur reçoit une procédure d'orientation en cas de révélation spontanée (psychologue scolaire / 3018).
"Est-ce que c'est méchant ou est-ce que c'est drôle ?" Travail sur la distinction jeu/moquerie/harcèlement. Exercice de graduation avec des fiches image.
Le "témoin courageux" — rôle du spectateur. Que faire quand on voit quelqu'un se faire embêter ?
Définition légale et statistiques : 6% des élèves déclarent être victimes de harcèlement, 22% subissent des agressions en ligne régulièrement (MEN 2024). Le cyberharcèlement prolonge le harcèlement physique — il n'est pas un phénomène séparé.
Exercice : analyse de 3 cas fictifs (victime / témoin / auteur sans le savoir). "Qu'aurait-il fallu faire à quel moment ?"
Procédure de signalement 3018, plateforme, référent harcèlement de l'établissement.
Responsabilité pénale du mineur : cyberharcèlement, usurpation d'identité, diffusion d'images intimes. Cadre légal exact (art. 222-33-2-2 CP, art. 226-2-1 CP).
"Pourquoi j'ai participé ?" — réflexion sur la dynamique de groupe en ligne (désindividualisation, effet de foule, anonymat perçu).
Discussion : le 3018 comme outil, pas comme dénonciation. Différence entre signalement et plainte.
Ce module de clôture ne préconise pas de réduire l'usage des écrans. Il construit la capacité à choisir — à décider quand se connecter et quand se déconnecter, pour des raisons personnelles et non sous la contrainte.
"Ce que j'aime faire sans écran" — liste libre, dessin. Construction d'un "trésor d'activités" personnel à consulter quand on s'ennuie.
Rituels familiaux : identification des moments sans écrans qui existent déjà à la maison. Pas de prescription, valorisation de ce qui existe.
"La semaine de test" — chaque élève définit une plage de 2h par jour sans écran. Pas une règle imposée : une expérience. Observation au bout d'une semaine : "Qu'est-ce que j'ai ressenti ?"
Notion de JOMO (Joy Of Missing Out) vs. FOMO (Fear Of Missing Out). Données : les adolescents qui décident eux-mêmes de déconnecter périodiquement rapportent des niveaux d'anxiété plus bas que ceux à qui on l'impose.
"L'avenir que je veux" — projection à 5 ans. "Si je continue avec ce rapport aux écrans, où est-ce que je serai ?" Exercice de visualisation bienveillante (pas culpabilisante).
Construction d'un "système personnel de gouvernance numérique" — pas des règles, des principes. Quand je me connecte, pourquoi. Quand je ne me connecte pas, pourquoi.
SOS ÉCRANS
L'Espace Parents — comprendre pour accompagner
L'Atelier ZenÉcran n'adresse pas seulement les enfants. Un enfant qui a reçu une formation de qualité revient dans une maison où les parents n'ont pas les mêmes repères — l'impact est limité. L'Atelier prévoit deux espaces adultes complémentaires.
Guide structuré par tranche d'âge (6-10 / 11-14 / 15-18) : quels comportements observer, lesquels sont normaux, lesquels méritent une attention spécifique, lesquels nécessitent un professionnel. Fondé sur la littérature clinique (DSM-5, critères de l'addictologie comportementale).
Fiches pratiques sur : l'introduction du premier smartphone (guide par âge), la configuration des contrôles parentaux, le dialogue avec un adolescent qui "surinvestit" un jeu ou un réseau social, comment parler du harcèlement sans provoquer le repli.
Format 90 minutes, déployable en soirée parents. Présentation des 6 modules de l'Atelier (pour que les parents comprennent ce que leur enfant a reçu), questions-réponses, ressources locales (3018, CMPP, psychologues scolaires). Animable par un animateur certifié SOS ÉCRANS ou par le référent harcèlement de l'établissement formé par SOS ÉCRANS.
Grille de 12 indicateurs (comportementaux + émotionnels + somatiques) permettant à un parent de distinguer usage intensif normal et usage problématique. Pas un outil diagnostic — un outil de conversation avec un professionnel de santé.
→ Voir Annexe 3 (programme Dialogue) : scripts de conversation exacts pour les familles lorsque Shieldy détecte un signal d'alerte — la phrase à dire, le mécanisme neurologique, la ressource complémentaire.
Synthèse des obligations en vigueur : signalement des situations de harcèlement (art. 40 CPP pour les fonctionnaires), procédure de signalement interne (référent harcèlement, chef d'établissement, IA-DASEN), responsabilité pédagogique. Mise à jour avec la loi du 2 mars 2022 contre le harcèlement scolaire.
Flowchart décisionnel : "J'observe X" → "Je fais Y". Distingue les situations nécessitant une intervention immédiate (risque vital, JEVS) des situations nécessitant un suivi (usage préoccupant sans urgence). Intègre les ressources locales (psychologue scolaire, médecin scolaire, CMPP).
Pour chacun des 6 modules : guide animateur (trame de séquence, timing, conseils de gestion de classe), fiches élèves imprimables, variantes selon le niveau de classe. Format adapté à une utilisation en cours d'EMC sans formation préalable.
Parcours de 2 jours (présentiel ou distance) permettant à un CPE, une infirmière scolaire ou un enseignant de déployer les 6 modules en autonomie complète. Le contenu détaillé de la formation — jour 1, jour 2, certification, cibles prioritaires CPE/infirmières — est développé en page A2·6.
Disponibilité : L'ensemble des ressources de l'Espace Parents et de l'Espace Enseignants est accessible gratuitement en ligne (sosecrans.fr) sans création de compte. Les ressources sont téléchargeables et réutilisables sous licence Creative Commons CC BY-NC-SA — attribution obligatoire, usage non commercial, partage dans les mêmes conditions.
SOS ÉCRANS
Pas d'installation. Pas de compte. Pas de données. Un QR code projeté sur l'écran de classe. C'est tout.
L'enseignant ou l'animateur ouvre atelier.html sur son ordinateur ou sa tablette. En 30 secondes, un code de session à 4 chiffres et un QR code sont générés automatiquement. L'encadrant projette le QR code. Il choisit la tranche d'âge (6–9 / 10–12 / 13–15 / 16–18 ans). La session démarre.
L'élève scanne le QR code avec son téléphone : connexion instantanée. Ou il tape le code à 4 chiffres manuellement (auto-focus, auto-avance, zéro friction). Il choisit un avatar animal — anonymat complet, aucun prénom. Il vote, réagit, pose des questions. À la fin : badge + certificat + invitation au Défi 24h.
Sur son écran : nombre d'élèves connectés, barres de votes par réponse (A/B/C/D), questions posées par les élèves, progression de la session. Mise à jour toutes les 3 secondes. Le Mur de Classe Live permet de modérer les questions anonymes des élèves avant de les afficher.
100 % statique. Zéro serveur. Zéro base de données. Fonctionne sur n'importe quel navigateur, mobile ou desktop, wifi scolaire standard. Hébergé sur Cloudflare Pages : 0 € d'infrastructure. Compatible avec les ENT et les réseaux pédagogiques sécurisés.
La formation animateur certifié SOS ÉCRANS s'adresse en priorité aux CPE (40 000 en France), aux infirmières scolaires (25 000+), et aux enseignants d'EMC. Elle dure 2 jours, en présentiel ou à distance, et certifie l'autonomie complète sur les 6 modules.
Matin : données scientifiques derrière chaque module (neurosciences de l'adolescence, mécanique des algorithmes, données épidémiologiques santé mentale). L'encadrant ne répète pas une leçon — il comprend les mécanismes pour répondre aux questions imprévues.
Après-midi : prise en main des 6 kits (guide animateur, fiches élèves, variantes FALC). Simulation de session avec groupe test. Débriefing collectif.
Matin : gestion des révélations en cours de session (un élève évoque une situation personnelle). Protocoles : ce qu'on dit, ce qu'on ne dit pas, comment passer au signalement si nécessaire. Différence entre "confident de crise" et "déclencheur de signalement".
Après-midi : session live autonome filmée + certification. Accès à la communauté d'animateurs SOS ÉCRANS (groupe sécurisé, mises à jour scientifiques, situations complexes partagées).
La certification est nominale, valable 2 ans. Elle inclut les mises à jour scientifiques annuelles (les données évoluent vite). Un animateur certifié peut former d'autres encadrants dans son établissement après 1 an de pratique — effet multiplicateur voulu.
| Profil | Réseau | Phase |
|---|---|---|
| CPE | Groupe Facebook 40 000 membres | Phase 1 — immédiate |
| Infirmières scolaires | Groupe Facebook 25 000 membres | Phase 1 — immédiate |
| Enseignants EMC / EMI | SNUipp-FSU (65 K) / SNES-FSU (55 K) | Phase 2 |
| Psychologues scolaires | ANOP (3 000 membres) | Phase 2 |
Le modèle Bark : aux États-Unis, Bark.us a atteint 5 millions d'enfants protégés en distribuant d'abord aux conseillers scolaires — l'équivalent des CPE français — plutôt qu'aux parents. L'école crédibilise l'outil avant que le parent n'ait à faire confiance à un inconnu. L'Atelier ZenÉcran suit le même modèle : CPE + infirmières scolaires d'abord, parents ensuite.
SOS ÉCRANS
« Le CLEMI a formé 22 000 enseignants à l'EMI entre 2021 et 2023. Aucun indicateur national ne mesure ce que les élèves ont appris. C'est le chaînon manquant que l'Atelier ZenÉcran ferme. »
OBSERVATOIRE_360 · SOS ÉCRANS · Mai 2026| Organisme | Méthode | Limite critique |
|---|---|---|
| ARCOM/CRÉDOC Baromètre annuel | Sondage déclaratif ~3 000 personnes | Mesure les usages déclarés — PAS la compréhension des risques |
| OPNAN (Normandie) | Questionnaire classe 4 880 élèves/an | Régional uniquement. Lycéens de seconde seulement. |
| CNIL/LINC 2024 | Qualitatif 130 élèves | Non représentatif nationalement. |
| DEPP/ICILS 2023 | Test standardisé ~4 000 élèves de 4e | Compétences techniques uniquement. Triennale. |
| e-Enfance/3018 | Déclaratif victimation | Réactif (après le problème). Pas de mesure préventive. |
Aucun organisme ne mesure, à l'échelle nationale et de manière régulière, ce que les jeunes comprennent réellement des risques numériques. Seulement ce qu'ils déclarent faire.
La CNIL l'a confirmé en 2024 : dans un sondage, les adolescents "évacuent les risques abstraits". Ce biais est structurel dans tous les baromètres existants. Un quiz en classe mesure un acte cognitif réel, pas une opinion. Il y échappe.
Répondre à une question sur le grooming en classe est un acte cognitif en situation, pas une opinion. La réponse révèle ce que l'élève comprend réellement — pas ce qu'il pense devoir dire.
Un score global "littératie numérique" ne dit pas si les élèves échouent sur les fake news, le phishing, la vie privée ou les algorithmes. L'Atelier ZenÉcran permet un diagnostic thème par thème — et donc une remédiation ciblée.
Une étude DEPP prend 12 à 24 mois entre collecte et publication. L'Atelier ZenÉcran produit des données disponibles en temps réel — et synthétisables trimestriellement pour le MEN.
L'OPNAN suit la Normandie depuis 2014 — seul observatoire longitudinal de ce type en France. L'Atelier ZenÉcran peut couvrir toutes les académies, tous les niveaux (6 à 18 ans), avec comparaison anonymisée REP / hors REP, rural / urbain.
SOS ÉCRANS porte le développement, la conformité RGPD (Art. 89 — finalité statistique, données totalement agrégées, impossibilité absolue de remonter à un individu, seuil minimum 15 élèves/classe avant toute publication), et le déploiement. Le Ministère reçoit les données agrégées nationales sans investissement ni risque juridique.
| Phase | Classes | Élèves | Ce que ça prouve |
|---|---|---|---|
| Pilote — Rentrée 2026 | 10–30 | 250–750 | Faisabilité technique, acceptabilité enseignants |
| Seuil crédible — Année 1 | 300 | 7 500 | Premier observatoire représentatif, ±3 % marge d'erreur |
| National — Années 2–3 | 2 000–4 000 | 50 000–100 000 | Représentativité complète niveaux × académies × secteurs |
Modèle de référence : l'Estonie, première au PISA, pilote son système scolaire par la donnée depuis 2004. La France a les institutions (DEPP, CLEMI) — il manquait l'outil de mesure spécifique à la compréhension des risques numériques. L'Atelier ZenÉcran est cet outil.
Croisement unique : e-Enfance souhaite croiser ses données de victimation avec des données de compréhension préventive. L'Atelier ZenÉcran est le seul outil qui peut fournir ce second jeu de données. La démonstration scientifique de l'efficacité préventive devient alors possible.
L'argument politique : le gouvernement finance l'EMI (18 heures/an au cycle 4, 22 000 enseignants formés) sans pouvoir en mesurer l'impact. L'Atelier ZenÉcran est la première infrastructure nationale capable de produire cet indicateur d'impact — à coût nul, sans risque juridique, alignée sur la feuille de route CLEMI 2024-2030. C'est une opportunité politique rare : une mesure d'impact disponible avant la prochaine échéance électorale.
SOS ÉCRANS
Un animateur certifié SOS ÉCRANS intervient dans l'établissement. Demi-journée ou journée complète selon le nombre de modules souhaités. Format recommandé pour les premières interventions. Coordonnée directement avec le chef d'établissement ou le CPE.
Après la formation de 2 jours, l'enseignant déploie les modules dans le cadre de l'EMC ou des heures de vie de classe. Format recommandé pour l'intégration pérenne dans le projet pédagogique. Les kits permettent une utilisation sans préparation supplémentaire.
Pour les académies, les collectivités ou les associations de parents souhaitant déployer à grande échelle : formation d'un référent par établissement, coordination centrale SOS ÉCRANS, évaluation de l'impact au niveau du réseau.
Tous les modules sont disponibles en français. Les fiches élèves existent en version "FALC" (Facile à lire et à comprendre) pour les élèves en situation de handicap cognitif. Version en langue des signes française (LSF) en cours de production.
Le corpus scientifique ayant fondé le programme comprend notamment : les travaux de Jean-François Dortier (Sciences Humaines) sur l'esprit critique adolescent, les programmes finlandais d'éducation aux médias (PISA 2022 : la Finlande est le pays le plus résilient à la désinformation en Europe), les recherches de l'Université de Bristol sur l'efficacité des programmes de media literacy (Livingstone & Blum-Ross, 2020).
Les modules sur l'image de soi et la santé mentale sont basés sur : les critères diagnostiques du DSM-5 pour le "Gaming Disorder" et les troubles liés aux réseaux sociaux, les recommandations de la Société Française de Pédiatrie sur le temps d'écran (2023), et les données de l'INSERM sur le développement cérébral adolescent (rapport 2021 "Troubles mentaux et psychiques chez les adolescents").
Plusieurs modules incluent une composante de construction par les pairs (les élèves identifient eux-mêmes les ressources, construisent leurs propres règles). Ce modèle est fondé sur les recherches de Bandura (1977) sur l'auto-efficacité et les travaux plus récents sur la résistance à la pression des pairs (Dishion & Tipsord, 2011).
SOS ÉCRANS recherche un partenariat avec une équipe de recherche universitaire pour une évaluation contrôlée de l'impact de l'Atelier ZenÉcran sur les comportements numériques (pré-test / post-test à 3 mois). La demande de validation par le Ministère de l'Éducation nationale (agrément "association éducative complémentaire de l'enseignement public") est en cours de préparation.
État au 16 mai 2026 : Les modules 1 à 6 sont documentés et disponibles en version "animateur externe". Les kits enseignants sont en cours de finalisation (format imprimable, variantes FALC). La formation animateur certifié est en cours de structuration. Le déploiement pilote est prévu pour la rentrée de septembre 2026, sous réserve de la validation associative évoquée dans le document principal.
Protège ce que l'enfant ne voit pas
Agit avant le contact avec le contenu
Non-contournable, en permanence
Couvre les réseaux sociaux via navigateur
Ne peut pas couvrir : messageries natives, jugement personnel, situations sociales
Construit ce que Shieldy ne peut pas décréter
Agit sur le jugement et la conscience
Efficace à long terme, après Shieldy
Couvre les messageries, les dynamiques sociales, l'image de soi
Ne peut pas remplacer : la protection technique pendant la maturation cérébrale
« Shieldy protège pendant que le cerveau se construit. L'Atelier construit le cerveau. Les deux sont nécessaires. Ni l'un ni l'autre ne suffit seul. »
Emmanuel Klein · Fondateur SOS ÉCRANS · Mai 2026
SOS ÉCRANS
Aucun élément de ce document n'a été inventé. Chaque affirmation repose sur une source vérifiable — étude peer-reviewed, rapport institutionnel, données épidémiologiques officielles ou document réglementaire public. Cette bibliographie n'est pas exhaustive : elle couvre les 80 sources les plus directement mobilisées pour fonder le programme et ses arguments.
Blakemore, S.J. & Choudhury, S. (2006). Development of the adolescent brain: implications for executive function and social cognition. Journal of Child Psychology and Psychiatry, 47(3-4), 296-312.
Steinberg, L. (2008). A social neuroscience perspective on adolescent risk-taking. Developmental Review, 28(1), 78-106.
Casey, B.J., Jones, R.M. & Hare, T.A. (2008). The adolescent brain. Annals of the New York Academy of Sciences, 1124, 111-126.
Carskadon, M.A. (2011). Sleep in adolescents: the perfect storm. Pediatric Clinics of North America, 58(3), 637-647.
Siegel, D.J. (2013). Brainstorm: The Power and Purpose of the Teenage Brain. Tarcher/Penguin.
Jensen, F.E. & Nutt, A.E. (2015). The Teenage Brain: A Neuroscientist's Survival Guide to Raising Adolescents and Young Adults. HarperCollins. [striatum dopaminergique adolescent, cité rapport AN N°1770]
INSERM (2021). Troubles mentaux et psychiques chez les adolescents : prévention et prise en charge. Rapport d'expertise collective. Paris : INSERM.
Bowlby, J. (1969). Attachment and Loss. Vol. 1: Attachment. Basic Books.
Ainsworth, M.D.S., Blehar, M.C., Waters, E. & Wall, S. (1978). Patterns of Attachment. Erlbaum.
Bandura, A. (1977). Self-efficacy: toward a unifying theory of behavioral change. Psychological Review, 84(2), 191-215.
Deci, E.L. & Ryan, R.M. (1985). Intrinsic Motivation and Self-Determination in Human Behavior. Plenum.
Dweck, C.S. (2006). Mindset: The New Psychology of Success. Random House.
Cyrulnik, B. (2001). Les vilains petits canards. Odile Jacob.
Omer, H. (2004). Non-violent Resistance: A New Approach to Violent and Self-destructive Children. Cambridge University Press.
Rosenberg, M.B. (2003). Nonviolent Communication: A Language of Life. PuddleDancer Press.
Lieberman, M.D. (2013). Social: Why Our Brains Are Wired to Connect. Crown Publishers.
Dishion, T.J. & Tipsord, J.M. (2011). Peer contagion in child and adolescent social and emotional development. Annual Review of Psychology, 62, 189-214.
Csikszentmihalyi, M. (1990). Flow: The Psychology of Optimal Experience. Harper & Row.
Pr. Thomas Borst (CHU Strasbourg). Données santé mentale adolescents. Audition Commission d'enquête AN N°1770, p. 90.
e-Enfance (2025). Baromètre de l'usage d'internet par les mineurs. Paris : e-Enfance / 3018.
OFDT / Santé publique France (2022). EnCLASS — Enquête nationale en collèges et lycées chez les adolescents sur la santé et les substances. [Données santé mentale, p.89 AN N°1770]
Assurance Maladie (2025). Données sur la consommation d'antidépresseurs chez les 12-25 ans (2019-2023). In rapport AN N°1770, p. 90. [+60%]
Observatoire national du suicide (2024). Données sur les hospitalisations pour gestes auto-infligés (2017-2023). In rapport AN N°1770, p. 91. [+46%]
CCDH — Center for Countering Digital Hate (déc. 2022). Deadly by Design. [2,6 minutes avant première vidéo suicide sur TikTok, p. 96 AN N°1770]
ANSES (2025). Rapport sur les effets sanitaires des usages numériques chez l'enfant et l'adolescent. Maisons-Alfort : ANSES.
Société Française de Pédiatrie (2023). Recommandations sur le temps d'écran chez l'enfant et l'adolescent.
DEPP / IEA ICILS (2023). International Computer and Information Literacy Study — Rapport France. Paris : Ministère de l'Éducation nationale.
Pr. Servane Mouton (CHU Bordeaux). Données cliniques exposition aux écrans. Audition Commission AN N°1770.
Livingstone, S. & Blum-Ross, A. (2020). Parenting for a Digital Future: How Hopes and Fears about Technology Shape Children's Lives. NYU Press.
Livingstone, S. (2014). Developing social media literacy: How children learn to interpret risky opportunities on social network sites. Communications, 39(3), 283-303.
Dortier, J.F. (2022). L'esprit critique à l'ère numérique. Sciences Humaines, hors-série.
CLEMI (2024). Feuille de route éducation aux médias et à l'information (EMI) 2024-2030. Paris : Ministère de l'Éducation nationale.
PISA 2022. Finlande : meilleur score de résilience à la désinformation en Europe. OCDE.
Conseil de l'Europe (2019). Digital Citizenship Education Handbook. Strasbourg : Conseil de l'Europe.
UNESCO (2021). Media and Information Literacy Curriculum for Teachers. 2e édition. Paris : UNESCO.
Assemblée nationale (sept. 2025). Rapport N°1770 de la Commission d'enquête sur les effets de TikTok sur la santé psychique des mineurs. Rapporteure : Laure Miller.
Parlement européen & Conseil (2022). Digital Services Act — Règlement (UE) 2022/2065. Art. 28 : protection des mineurs. JOUE.
Arcom (oct. 2024). Référentiel de vérification de l'âge pour les services de communication en ligne. Paris : Arcom.
Loi n°2024-449 du 21 mai 2024 (SREN). Loi visant à sécuriser et réguler l'espace numérique. JORF.
Proposition de loi Laure Miller (2025). PPL visant à protéger les mineurs de moins de 15 ans sur les réseaux sociaux.
IWF — Internet Watch Foundation (2024). Annual Report. [68% grooming via messageries privées]
Art. 227-22-2 Code pénal. Grooming / sollicitation sexuelle de mineur par voie électronique.
Loi n°2022-299 du 2 mars 2022. Loi visant à combattre le harcèlement scolaire. JORF.
Bark.us (2024). Annual Safety Report: 5 million children protected. Atlanta : Bark Technologies.
eSafety Commissioner (Australie, 2024). Online Safety Act implementation report. Sydney.
Internet Matters UK (2024). Annual impact report. London.
Thorn (2024). Technology to defend children — ARTEMIS platform. San Francisco : Thorn.
CEOP (2024). Annual Report. UK Child Exploitation and Online Protection Command. London.
NCMEC (2023). Annual Report. National Center for Missing & Exploited Children. Alexandria, VA.
Gouvernement grec (nov. 2024). Kids Wallet — pilote de vérification de l'âge et de contrôle parental. Athènes.
Kentucky Public Radio / NPR (oct. 2024). Documents internes TikTok sur les objectifs réels des outils de contrôle parental. [Cité p. 259 rapport AN N°1770]
Facebook Files (Wall Street Journal, sept. 2021). Documents internes Meta sur les effets connus d'Instagram sur la santé mentale des adolescentes.
Note méthodologique : Cette bibliographie a été constituée par croisement des références citées dans le rapport AN N°1770 (300 pages), des travaux de recherche fondateurs de SOS-Parents (30+ études), des benchmarks internationaux (CEOP, Thorn, Bark.us, Internet Matters) et de la littérature de santé publique sur l'adolescence (INSERM, SFP, ANSES). Aucune affirmation dans ce document ne repose sur une source unique. Les chiffres clés sont systématiquement issus d'au moins deux sources concordantes.
SOS ÉCRANSPourquoi SOS-Parents existe : Shieldy détecte. l'Atelier ZenÉcran prévient en classe. Mais aucun algorithme ne peut écrire la conversation entre un parent et son enfant à 23h, après une alerte. SOS-Parents donne au parent la phrase exacte à dire — fondée sur 30+ études scientifiques, pas sur l'intuition.
SOS-Parents est une plateforme d'orientation parentale fondée sur la littérature clinique peer-reviewed :
SOS ÉCRANS| # | Situation déclencheur | Technique clinique | Lien Shieldy |
|---|---|---|---|
| 1 | Mon enfant se referme, ne parle plus | MI — Ouverture | Signal retrait social |
| 2 | Il change de comportement depuis quelques semaines | SFBT — Exception | Alerte comportementale |
| 3 | Je ne sais pas avec qui il parle en ligne | MI — Exploration | Contact inconnu détecté |
| 4 | Il garde secrets ses échanges | RNV — Présence sans intrusion | Trafic inhabituel nocturne |
| 5 | Je pense qu'il est victime de harcèlement | Écoute active — Nommer sans dramatiser | Mots-clés harcèlement |
| 6 | Je soupçonne une relation dangereuse | MI — Double lien | Pattern grooming |
| 7 | Il est collé à ses écrans, impossible à décrocher | MI — Ambivalence | Dépassement couvre-feu |
| 8 | Il est harcelé en ligne | Protocole pHARe + Écoute validante | 3018 signalement |
| 9 | Il a vu des images traumatisantes | Debriefing progressif (Mitchell & Everly, CISD) | Contenu signalé |
| 10 | Il exprime des idées noires | Règle Papageno stricte + 3114 | 🚨 Alerte critique 3114 |
| 11 | Il m'en veut d'avoir installé Shieldy | RNV — Pacte de confiance | Refus parental |
| 12 | Il contourne les règles avec ses amis | SFBT — Objectif partagé | Contournement détecté |
| 13 | Je veux lui parler de ce que j'ai vu | MI — Permission | Rapport hebdo dimanche |
Shieldy signale un dépassement du couvre-feu 5 nuits de suite. L'enfant est accro à son téléphone la nuit.
"Donne-moi ce téléphone !" / "T'as pas honte ?" / "Tu vas te faire confisquer tout."
Pourquoi : déclenche la réactance psychologique — l'adolescent résiste par principe à toute contrainte perçue comme une privation de liberté.
"Les réseaux sont conçus pour être addictifs — des ingénieurs très bien payés travaillent à ça. Ce n'est pas un manque de volonté. Comment on trouve l'équilibre qui te convient ?"
Le striatum adolescent est hypersensible à la récompense dopaminergique. Une notification = un micro-shoot de dopamine. L'enfant n'est pas faible — son cerveau est encore en développement. (Jensen, 2015)
Valider le plaisir → externaliser le problème (l'algorithme, pas l'enfant) → invitation à co-construire la règle. L'enfant qui choisit la règle la respecte.
SOS ÉCRANSLe PARS (Parent-Adolescent Relationship Scale, Moretti & Peled, 2004 ; Steinberg, 2001) est un questionnaire de 21 items mesurant trois dimensions indépendantes de la relation :
L'enfant sent-il qu'il peut parler à son parent ? Le parent comprend-il les émotions de son enfant ? Score 1–10.
Combien d'activités communes par semaine ? Qualité vs. quantité. Présence physique vs. présence attentive. Score 1–10.
Fréquence des conflits, ton des échanges, capacité à réparer après une dispute. Score inversé 1–10.
SOS-Parents propose deux versions du PARS : une pour le parent, une pour l'adolescent. Les réponses sont traitées côté appareil (zéro transmission serveur). La plateforme identifie les patterns de divergence : un parent qui se perçoit très connecté mais dont l'enfant se sent seul — c'est le pattern le plus fréquent, et le plus silencieux.
Shieldy génère une alerte dimanche matin. Le rapport hebdomadaire signale un comportement inhabituel (pattern grooming, isolement nocturne, mots-clés signalants). Un bouton — "Comment lui en parler" — ouvre directement le script correspondant dans SOS-Parents : la phrase exacte à dire, le mécanisme neurologique, la technique à employer, et les ressources complémentaires (3018, 3114, pHARe). Cette intégration découle directement du fait que les deux outils ont été conçus ensemble, pour le même enfant.
SOS-Parents n'est pas un service de psychologie clinique (pas de diagnostic, pas de suivi thérapeutique) ni une ligne d'urgence (le 3018 et le 3114 restent référencés pour les situations critiques). C'est un outil d'interface — entre la détection technique de Shieldy et la conversation humaine, entre la prévention en classe de l'Atelier ZenÉcran et le dialogue en famille. Il comble le vide que les parents expriment le plus souvent : "Je sais que quelque chose ne va pas. Je ne sais pas comment aborder le sujet."
Il est conçu pour être utilisé avant la crise (prévention primaire) mais s'active aussi après une alerte Shieldy (prévention secondaire) et référence les professionnels en cas de crise (prévention tertiaire).