Revue

Dossier

Le Fonds d’expérimentation pour la jeunesse : comment apprendre de l’innovation par l’expérimentation ?

Le 2 septembre 2024

En seize ans, près d’un millier de projets innovants ont été financés, expérimentés et évalués, tous visant à favoriser la réussite scolaire des élèves, à contribuer à l’égalité des chances et à améliorer l’insertion sociale et professionnelle durable des jeunes de moins de 25 ans. Quels enseignements tirer du Fonds d’expérimentation pour la jeunesse (FEJ) ? Que sont devenus les projets soutenus ? Regard croisé d’une évaluatrice, Agathe Devaux-Spatarakis, et d’un chargé d’études et d’évaluation de l’Institut national de la jeunesse et de l’éducation populaire (INJEP), Samuel James, sur les possibilités d’apprentissages ouvertes par le FEJ. Lancé en 2008 et porté par l’INJEP, le FEJ qui finance des dispositifs expérimentaux en faveur des jeunes est unique dans le paysage français de l’innovation publique.

Résumé

Depuis 2008, le FEJ porté par l’INJEP organise et finance la conduite d’expérimentations sociales. Son ambition est de favoriser l’émergence de projets innovants évalués de manière rigoureuse, afin de nourrir les politiques publiques de jeunesse en France. Une évaluatrice et un chargé d’études et d’évaluation de l’INJEP proposent un regard croisé sur les possibilités d’apprentissages ouvertes par ce dispositif. Cette association entre un cadre évaluatif et un projet innovant s’avère porteuse pour structurer des apprentissages chemin faisant, permettant de renforcer la dimension innovante des projets. Apprentissages qui dans certains cas perdurent bien après la fin de l’expérimentation sous des formes diverses. Néanmoins, les choix de la méthodologie d’évaluation accompagnant les projets et notamment le degré de co-production qu’elle est susceptible d’organiser avec les porteurs de projets s’avèrent déterminants pour favoriser une véritable démarche d’innovation apprenante.

Introduction

Le FEJ, créé fin 2008, apparaît comme une entité singulière et inédite dans l’action publique française aussi bien au niveau de son fonctionnement, que du rapport qu’il entretient avec le politique ou des méthodes qu’il déploie et mobilise. Le FEJ, porté par l’INJEP, finance des dispositifs expérimentaux au bénéfice des jeunes, dans le but de favoriser la réussite éducative des élèves, de contribuer à l’égalité des chances et d’améliorer l’insertion professionnelle, économique et sociale des jeunes en France. L’ambition originale du fonds est de favoriser l’innovation sociale en mobilisant l’expérimentation et les méthodes d’évaluation à même de permettre d’éclairer la décision publique, par exemple, en préfigurant de futures politiques publiques. À ce titre, il peut être considéré comme un laboratoire d’innovation du secteur public, « public sector innovation labs »1.

L’objectif de ce programme est de disposer d’un outil suffisamment souple pour permettre de susciter des initiatives innovantes du terrain, mobilisant les acteurs du champ de la jeunesse, de les soutenir financièrement et de les accompagner sur une durée suffisante pour permettre une évaluation du dispositif pour en dégager des enseignements et la possibilité de le déployer à plus grande échelle, voire de le généraliser.

Une expérimentation sociale consiste en une innovation de politique sociale, lancée, dans un premier temps, à une échelle limitée compte tenu des incertitudes relatives à son efficacité. L’objectif d’une expérimentation est d’étudier les conditions de mise en œuvre d’un dispositif et d’en mesurer les effets dans l’optique de l’essaimer, dans son ensemble ou en partie. Expérimenter, pour le FEJ, c’est associer un projet innovant porté par une équipe à une évaluation menée par une équipe
proposant une approche rigoureuse.

Depuis quinze ans, le FEJ a expérimenté différentes modalités d’association et de suivi des porteurs de projets et des équipes d’évaluation afin de favoriser les apprentissages issus des expérimentations. Nous proposons ici un regard croisé entre un chargé d’études et d’évaluation de l’INJEP, et une évaluatrice ayant réalisé plusieurs évaluations d’expérimentations accompagnées par le FEJ et un travail de thèse sur les principaux types apprentissages observés dans le cadre de la conduite d’expérimentations. Ces usages s’opèrent chemin faisant pour accompagner l’innovation, mais aussi à plus longs termes pour les porteurs de projets. Néanmoins, les choix méthodologiques en termes d’approche évaluative restent un élément déterminant conditionnant, ce qui peut être appris, par qui et comment.

L’ambition originale du fonds est de favoriser l’innovation sociale en mobilisant l’expérimentation et les méthodes d’évaluation à même de permettre d’éclairer la décision publique.

Le FEJ, un programme structurant le couple expérimental : projet-évaluation

L’expérimentation s’appuie sur un partenariat original entre le FEJ en tant que service de l’État et des acteurs publics et privés qui partagent le même objectif : celui d’agir en vue d’améliorer la situation des jeunes au travers de la démarche expérimentale2.

Le FEJ agit selon deux logiques : une logique descendante (top-down) quand des expérimentations sont lancées par le Gouvernement pour tester une politique avant de la généraliser et une logique ascendante (bottom-up) lorsque les acteurs de terrain du champ de la jeunesse sont sollicités par le biais d’appels à projets pour proposer des dispositifs à partir de leur expérience, et pour les tester3.

Les objectifs des expérimentations correspondent à différentes étapes de conception d’une politique publique dans le cadre expérimental :

  • explorer un problème via des recherches, études et testings4 ;
  • faire remonter des idées et des actions pour en évaluer les effets et les conditions de mise en œuvre ;
  • tester une hypothèse « essaimable » en en évaluant l’impact.

En quinze ans d’existence, le FEJ, notamment son conseil scientifique, a aussi joué un rôle de conseiller méthodologique au sujet du choix entre les différentes approches méthodologiques d’évaluation à privilégier afin de répondre aux objectifs de rigueur et de connaissance pour renseigner ces trois étapes de l’expérimentation. L’évaluation tient une place importante dans le dispositif d’expérimentation. Elle vise à produire de la connaissance sur le déploiement du dispositif, son efficacité et sa capacité à être pérennisé, notamment sous la forme d’une politique publique.

Depuis sa création fin 2008, le FEJ a financé plus de 900 dispositifs et près de 350 évaluations5. Durant cette période, environ les trois quarts de ces évaluations apportent des connaissances sur les effets et conditions de mises en œuvre, moins de 5 % proposent du testing et environ 20 % proposent des estimations quantitatives de l’impact des projets.

Qu’attendre des évaluations pour nourrir l’innovation publique ?

Communément, l’utilité des évaluations pour l’action publique est jugée à l’aune de l’utilisation des résultats de l’évaluation dans la prise de décision politique. Ce critère unique d’appréciation a conduit plusieurs observateurs jusqu’à aujourd’hui à dresser un bilan critique6. En effet, fréquemment les décisions politiques sont prises avant la production de résultats d’évaluation, ou les évaluations ne permettent pas de produire des résultats pertinents pour la prise de décision7.

Néanmoins, les travaux de recherche internationaux sur l’utilité de l’évaluation nous appellent à élargir le champ de ce qu’on entend par « utilisation », « utilité » ou « usages de l’évaluation »8. De manière générale, les recherches en évaluation s’accordent sur trois catégories d’usages de l’évaluation pouvant intervenir chemin faisant ou a posteriori9 :

  • un usage « instrumental » : l’évaluation produit des résultats intermédiaires ou finaux qui sont pris en compte pour modifier le projet chemin faisant ou dans le cadre d’une nouvelle programmation. Mais aussi, le processus d’évaluation en lui-même produit un changement ou des apprentissages chez les parties prenantes (avant même la production de résultats) :
  • un usage « conceptuel » : l’évaluation produit des résultats qui contribuent à voir le projet, ou un problème public, sous un nouvel angle, ou apporte des analyses sur des problématiques publiques pouvant être mobilisés dans d’autres contextes. Dans cette catégorie aussi, le processus de l’évaluation en tant que tel peut générer ces usages ;
  • un usage « persuasif » : l’évaluation est alors utilisée pour légitimer une décision publique. Cette utilisation peut être parfois caractérisée d’usage « symbolique » de l’évaluation, si l’évaluation n’est qu’un faire-valoir.

Nous proposons ici des exemples de ces différents types d’usages et de leur apport pour l’innovation conduite dans le cadre de l’expérimentation.

Les apprentissages chemin faisant organisés par l’évaluation

Il convient ici, en préambule de cette présentation, de préciser que les apprentissages chemin faisant que nous évoquons sont issus d’approches d’évaluation co-construites entre l’équipe d’évaluation et les porteurs de projets lors du lancement de l’expérimentation, attentives aux éléments de contexte, adoptant une posture entre le suivi et l’évaluation organisant des temps d’apprentissage réguliers et des ajustements méthodologiques pour accompagner au mieux l’innovation.

Le dispositif expérimental du FEJ organise une relation particulière entre l’équipe d’évaluation et les porteurs de projets puisque ce binôme est constitué dès le financement du projet, et ce jusqu’à la fin de ce financement, soit généralement pour trois ans. En conséquence, elle permet à des équipes d’évaluation de déployer une méthodologie que l’on peut considérer entre le suivi et l’évaluation puisqu’elle doit permettre à la fois de piloter le projet à l’aide d’indicateurs (ce que fait un système de suivi), mais aussi de produire des analyses plus approfondies ainsi que des informations sur les résultats des projets (ce que fait une évaluation). Le FEJ requiert ainsi, pendant les trois années d’expérimentation, la production de rapports intermédiaires semestriels, produits par les porteurs de projets, d’une part, et les équipes d’évaluation, d’autre part. Ces échéances régulières peuvent permettre d’organiser des temps de réflexion et d’apprentissages entre ces deux parties ainsi que le FEJ, et suscitent des apprentissages chemin faisant.

Le FEJ agit selon deux logiques : une logique descendante (top-down) et une logique ascendante (bottom-up).

Les usages les plus fréquemment observés sont de type « conceptuel ». En effet, une des particularités du FEJ réside dans le temps qu’il accorde et l’intérêt qu’il consacre à la conduite de revues de la littérature scientifique par l’équipe d’évaluation afin d’inscrire le projet dans des problématiques plus larges, ou de recenser les résultats obtenus par d’autres projets similaires. Ces revues de la littérature interviennent souvent en début d’expérimentation, notamment lors de la rédaction de la note de cadrage de l’évaluation. Elles peuvent alors susciter de nombreux apprentissages auprès des porteurs de projets qui aboutissent dans certains cas à des ajustements du projet. D’abord, ces revues de la littérature peuvent aider les porteurs de projet à ancrer et structurer leur analyse des problématiques qu’ils rencontrent et les outiller pour mieux y répondre. À titre d’exemple, dans le cadre de l’évaluation d’un projet d’internat à Mayotte, les porteurs de projets rencontraient des difficultés dans l’adaptation des jeunes mahoraises aux cadres de l’internat. L’équipe d’évaluation a mobilisé une littérature académique s’intéressant aux dissonances entre la culture de certains publics et le système scolaire, classifiant ces dissonances en différentes catégories (par exemple, rapport au temps, à l’autorité ou à la réussite), et expliquant comment elles se manifestaient. Ces cadres ont permis aux porteurs de projet de confirmer leurs premières intuitions, mais aussi d’anticiper ces dissonances et de les travailler au plus vite avec les nouvelles arrivées10.

Ces revues de la littérature peuvent aussi être utilisées de manière très opérationnelle pour le système de suivi et l’évaluation. À titre d’exemple, dans le cadre d’une autre expérimentation, dont l’objectif principal était la structuration d’une dynamique de coopération entre les acteurs de la culture urbaine dans l’océan Indien, la revue de la littérature a permis de détailler la coopération en différentes composantes (échanges pacifiés, vision commune, capacité à changer d’avis, etc.) et de constituer un outil de suivi sous forme de baromètre de la coopération couvrant une dizaine de dimensions et permettant d’apprécier l’évolution de la coopération entre les parties prenantes de manière structurée.

Enfin, le processus même d’évaluation est aussi source d’apprentissages pour les porteurs de projets. Comme l’a révélé une enquête produite par le FEJ auprès de ces derniers, l’expérimentation constitue, pour la plupart, leur première expérience d’évaluation11. L’équipe d’évaluation, d’autant plus lorsqu’elle a déjà au préalable participé à d’autres expérimentations, peut endosser un rôle pédagogique de sensibilisation des porteurs de projet à la fois au suivi-évaluation, mais aussi à la démarche expérimentale.

L’acculturation des porteurs de projets à la logique de l’évaluation se manifeste notamment par leur mobilisation croissante au fur et à mesure de l’expérimentation des données de suivi dans leurs discussions stratégiques, leur participation à la collecte de données, voire leur regard de plus en plus éclairé et critique sur le choix des indicateurs ou des questionnements les plus pertinents. Il est important de préciser ici que ces acculturations sont fortement liées à des démarches d’évaluation de nature participative, c’est-à-dire un protocole accordant une large place à la co-production entre équipe d’évaluation et porteurs de projets du questionnement évaluatif, du choix des indicateurs et outils de collecte de données ainsi que de la mise en perspective des résultats. À plusieurs reprises, nous avons aussi remarqué que la démarche évaluative accompagnait les porteurs de projets à s’inscrire véritablement dans une logique d’innovation. En effet, chemin faisant, le phasage des questionnements et des tests structurés par l’évaluation sur les modes de faire, ou la manière d’atteindre les publics, par exemple, conduit les porteurs de projets à se permettre d’adopter une approche innovante, d’accepter de tester des solutions, de changer de stratégie et d’adapter leur action au regard du contexte et de son évolution.

L’inscription dans une logique innovante nous amène aux usages dits « instrumentaux » que nous avons eu l’occasion d’observer au fur et à mesure. Nous entendons par là l’utilisation directe des résultats intermédiaires de l’évaluation pour modifier le projet chemin faisant afin d’en améliorer l’efficacité ou la pertinence. Lors de nos différentes expériences d’évaluation des projets, nous avons constaté des ajustements – parfois assez conséquents – sur le ciblage des publics (choisir de se focaliser sur un public spécifique pour lequel le projet est plus pertinent et efficace), sur la manière de les « repérer » et mobiliser (sélection des modes de mobilisation les plus efficaces), ou sur des actions à renforcer (suite à un fort taux d’abandon, les porteurs de projets ont renforcé l’accompagnement proposé notamment sur la prise en compte des freins économiques et sociaux).

L’expérimentation… et après ?

Le FEJ de manière institutionnelle prend principalement à charge de favoriser un apprentissage « conceptuel » issu des expérimentations, au sens où il rend publics et donc accessibles à tout autre acteur ou organisation les résultats des expérimentations et qu’il produit aussi des synthèses de résultats sur des thématiques spécifiques, comme le décrochage scolaire ou les discriminations subies par les jeunes, notamment dans les collections de l’INJEP12. Cette initiative et transparence est assez rare dans le paysage français pour être saluée, néanmoins, il est difficile pour nous d’apprécier ici dans quelle mesure d’autres acteurs se saisissent de ces travaux pour alimenter leur propre programmation.

Nous concentrons ici notre réflexion sur les usages par les porteurs de projets après la fin de l’expérimentation. Une enquête par questionnaire, prolongée par une série d’entretiens semi-directifs, a été menée en 2018 auprès d’anciens porteurs de projet dans le but de recueillir leur expérience du FEJ et de mieux comprendre les mécanismes ayant permis aux actions soutenues de se structurer et de se développer ou, au contraire, d’éclairer les motifs n’ayant pas permis à certaines actions de perdurer13.

À plusieurs reprises, nous avons aussi remarqué que la démarche évaluative accompagnait les porteurs de projets à s’inscrire véritablement dans une logique d’innovation.

Les résultats de l’enquête montrent que les apports du FEJ peuvent être de différentes natures (soutien financier, appui méthodologique, visibilité accrue, etc.) et sont susceptibles de favoriser la structuration du projet (cohésion renforcée entre acteurs d’un territoire, meilleure connaissance du public, etc.).

Pour la plupart des porteurs de projet enquêtés, le dispositif a d’ailleurs perduré après l’expérimentation selon différentes modalités : le développement, le maintien en l’état ou la réduction. Parmi les dispositifs qui se sont pérennisés en se développant, les modalités d’essaimage qui arrivent en tête sont l’approfondissement (améliorer l’impact de l’activité sur chaque bénéficiaire ou faire croître le nombre de bénéficiaires) et la coopération (se rapprocher d’autres structures et nouer des partenariats).

Ceux dont le dispositif s’est arrêté évoquent la difficulté à trouver des financements pour maintenir les actions à l’issue du soutien du FEJ. Ce programme n’ayant pas vocation à financer la pérennisation d’un projet (même si les évaluations présentent des enseignements positifs). Les entretiens auprès des porteurs relèvent d’un défaut d’anticipation de la fin du soutien FEJ, de la complexité des dossiers de demande de financement, d’une dépendance à des logiques politiques elles-mêmes soumises à des arbitrages budgétaires, d’une taille limitée et d’un manque de ressources humaines dans la structure qui contribue à l’instabilité des équipes projet ou encore des diverses temporalités de financement (annuel ou pluriannuel) qui ne permettent pas au porteur de se projeter aisément.

Pour la plupart des porteurs de projet interrogés, l’évaluation externe pilotée par le FEJ est une première. L’enquête montre que les résultats de l’évaluation sont d’une réelle utilité pour la poursuite de l’activité des porteurs de projet. Ces derniers mentionnent d’abord, parmi les bénéfices qu’ils en tirent, une légitimité accrue pour l’élaboration de partenariats. Viennent ensuite la connaissance approfondie du public, le changement des pratiques professionnelles et la légitimité pour décrocher de nouveaux financements.

Pour la plupart des porteurs de projet interrogés, l’évaluation externe pilotée par le FEJ est une première.

Champ

Les répondants au questionnaire ayant déclaré que leur expérimentation a fait l’objet d’une évaluation (n = 132, dont 76 associations, 5 collectivités territoriales, 14 porteurs relevant de l’Éducation nationale, 13 établissements d’enseignement supérieur, 6 établissements publics, 17 missions locales, 1 structure privée).

Note

Plusieurs réponses possibles à la question : « Quels ont été les apports des résultats et enseignements de l’évaluation externe menés dans le cadre du FEJ ? »

Lecture

55 % des répondants ayant indiqué que leur expérimentation avait fait l’objet d’une évaluation déclarent que cette dernière leur a permis d’acquérir une légitimité pour l’élaboration de partenariats.

Les apprentissages autour du processus d’évaluation identifiés pendant l’expérimentation perdurent à la suite de cette expérience. L’enquête montre que des échanges mutuels et des apprentissages communs entre l’équipe projet et l’équipe d’évaluation, la dynamique enclenchée par la participation à l’évaluation permettent une évolution des pratiques professionnelles de certains porteurs, par l’intériorisation d’un protocole d’évaluation dans leurs pratiques courantes (outils de suivi, bilans d’action, etc.). Le fait d’avoir été en relation avec une équipe d’évaluation et d’avoir participé à la mise en place d’un protocole méthodologique scientifique rigoureux confère parfois la légitimité et la crédibilité permettant de construire et d’étendre le réseau de partenaires, de mutualiser les compétences acquises et de fédérer efficacement les acteurs autour du projet. L’obtention de nouveaux financements et l’inscription du projet dans le contexte institutionnel s’en trouvent alors facilitées.

Concernant les résultats, l’évaluation peut apporter, comme prévu, des résultats qui confirment les hypothèses de départ et attestent alors la pertinence du projet ou alors contredire certaines hypothèses ou ne pas permettre de les confirmer, ce qui est utile dans le cadre d’une réflexion portant sur les réorientations possibles des dispositifs vers plus d’efficacité.

Cependant, selon les différentes approches méthodologiques et postures évaluatives, l’évaluation peut-être parfois perçue comme une contrainte, voire être source d’incompréhensions. En effet, l’évaluation peut impliquer une forme de distance de l’évaluateur vis-à-vis du terrain d’expérimentation. Bien que certains porteurs ne voient pas d’inconvénients à la posture distante de l’équipe d’évaluation, d’autres ont interprété cet éloignement comme étant responsables d’une relative déconnexion des évaluateurs par rapport aux réalités concrètes du terrain. Cette critique est notamment formulée à l’égard des méthodes d’évaluation quantitative visant à mesurer l’impact du dispositif, en particulier lorsqu’elles impliquent l’affectation aléatoire à un groupe test (bénéficiaire des actions) et à un groupe témoin (non-bénéficiaire des actions). Pour estimer de manière robuste l’efficacité d’un dispositif, il est indispensable que celui-ci soit stabilisé, c’est-à-dire que les actions sont invariantes dans le temps et dans l’espace afin que la comparaison des groupes puisse refléter l’effet de l’éligibilité au programme expérimental. Par conséquent, les évaluateurs qui mettent en place ce type de démarche évaluative se gardent d’intervenir dans le processus d’élaboration des actions du porteur et adoptent nécessairement une posture externe et distanciée. Ces méthodes d’évaluation ainsi que les méthodes se focalisant sur un seul volet du dispositif ont pu être perçues par les porteurs comme inadaptées. Dans ce cadre, les résultats produits sont reçus avec moins d’enthousiasme et considérés comme moins utiles, voire déformés, par rapport à ce qui fait l’intérêt du projet.

L’évaluation représente également beaucoup de travail pour le porteur, qui doit organiser le projet de manière que l’évaluation ait lieu, qui doit aussi travailler en collaboration avec l’équipe d’évaluation, compléter les outils de suivi souvent nombreux. Ainsi, même si l’évaluation est perçue comme la contrepartie du fait de bénéficier d’un financement accordé par le FEJ, les porteurs n’en attendent pas moins que les résultats de l’évaluation leur apportent des éléments concrets permettant d’améliorer le dispositif, et pas seulement des connaissances scientifiques qui figureront dans des articles de recherche ou dans des notes à l’attention des décideurs, peu mobilisables par les acteurs de terrain.

Lorsque cela est possible, les porteurs valorisent le fait d’avoir pu discuter et échanger avec l’évaluateur sur les outils et la méthode dans une démarche de co-construction du protocole d’évaluation. L’adhésion du porteur à la démarche évaluative est d’autant plus aisée qu’elle a fait l’objet de discussions préalables et que les décisions ont été prises en commun. La méthode évaluative doit être adaptée dans ses ambitions et dans sa méthodologie à la taille de la structure porteuse ainsi qu’au degré de maturité du projet, cela afin que les porteurs puissent saisir l’intérêt de la démarche et que celle-ci ne leur paraisse pas superflue.

Conclusion

Le FEJ organise un programme d’innovation particulier structuré autour de l’interaction entre un porteur de projet et une équipe d’évaluation. Ce binôme, lorsqu’une réelle relation de co-production s’installe, renforce l’approche d’innovation par une structuration de questionnements, des temps de tests et d’analyses, ainsi que l’organisation de temps d’apprentissages et d’ajustements du projet. Ces apprentissages peuvent d’ailleurs changer les pratiques à moyen terme des porteurs de projets et constituer une réelle acculturation à l’approche évaluative au service de leurs missions. Néanmoins, pour que cette dynamique s’instaure, le choix de l’approche d’évaluation est déterminant. Tout en se détachant d’un rôle d’expert en s’ouvrant à une co-construction avec le porteur de projet de ses cadres d’analyse, l’équipe d’évaluation doit néanmoins garder toujours une posture de neutralité et garantir une rigueur méthodologique. Cet équilibre est fragile, et cette posture est difficile toujours à tenir, néanmoins les possibilités ouvertes par cette approche encouragent certaines équipes d’évaluation à poursuivre sur cette voie pour faire de l’évaluation un véritable allié de l’innovation.

  1. McGann M., Blomkamp E. et Lewis M. J., “The Rise of Public Sector Innovation Labs : Experiments in Design Thinking for Policy, Experiments in Design Thinking for Policy”, Policy Science 2018, no 3, vol. 51, p. 249-267.
  2. James S. et Bricet R., « Regard sur l’expérimentation sociale. Enquête auprès des porteurs de projets du Fonds d’expérimentation pour la jeunesse (FEJ) », INJEP Notes & rapports 2021.
  3. Kerivel A. et James S., L’expérimentation sociale. Étapes et méthodes d’évaluation, 2018, INJEP, Fiches repères.
  4. « Le "testing" ou test de discrimination est une mesure expérimentale visant à rendre compte de situations de discrimination. Situations se caractérisant par le fait qu’une personne A se voit refuser, entre autres, la prestation d’un service ou l’acquisition d’un bien au bénéfice d’une autre personne B sur la base d’un ou de plusieurs critères décrits dans l’article 1 de la loi no 2008-496 du 28 mai 2008 et dont la prise en compte constitue une infraction. » (Parquet L. du et Petit P., « Évaluer la discrimination à l’embauche liée au lieu de résidence : apports et limites de la méthode du testing », Reflets et perspectives de la vie économique 2011, p. 47-54).
  5. Entre 2009 et 2018, 291 évaluations portaient sur un dispositif et 26 évaluations sur plusieurs dispositifs.
  6. Bureau M.-C., Sarfati F., Simha J. et Tuchszirer C., « L’expérimentation dans l’action publique. », Travail et emploi 2013, no 135, p. 41-55 ; Direction générale de la cohésion sociale, Ansa, « L’expérimentation sociale : innover par la preuve ? », 2010, centre d’analyse stratégique.
  7. Gomel B. et Serverin É., « L’expérimentation sociale aléatoire en France en trois questions », Travail et emploi 2013, no 135, p. 57-71 ; Devaux-Spatarakis A., « L’expérimentation “telle qu’elle se fait” : leçons de trois expérimentations par assignation aléatoire », Formation emploi juill. 2014, no 126, p. 1738.
  8. Devaux-Spatarakis A. et al., « À quoi sert l’évaluation », in Delahais T., Devaux-Spatarakis A., Revillard A. et Ridde V. (dir.), Évaluation. Fondements, controverses, perspectives, 2021, ESCB.
  9. Alkin M. et Taut S., “Unbundling Evaluation Use”, Studies in Educational Evaluation 2003, no 29, p. 1-12.
  10. Pour une description approfondie de cette expérimentation consulter : Devaux-Spatarakis A., Harmach S., Alouis J. et Sage K., « Concilier les différents intérêts d’apprentissage d’une expérimentation à Mayotte : retour d’expérience sur le rôle de l’évaluateur pour favoriser les usages de l’évaluation », in Kérivel A. et James S., « Comment évaluer des projets innovants encore en construction ? », INJEP Notes & rapports 2021/14, p. 27-36.
  11. James S. et Bricet R., « Regard sur l’expérimentation sociale. Enquête auprès des porteurs de projets du Fonds d’expérimentation pour la jeunesse (FEJ) », op. cit.
  12. Les travaux de capitalisation des évaluations permettent de produire de la connaissance sur les conditions de mises en œuvre et les effets des projets sur les bénéficiaires, les partenaires ou encore les territoires d’expérimentation. Les publications de l’INJEP (analyses et synthèses, notes et rapports, ouvrages, etc.) peuvent être consultées sur le site : https://injep.fr/publications/
  13. Plusieurs des passages suivants sont extraits du rapport : James S. et Bricet R., « Regard sur l’expérimentation sociale. Enquête auprès des porteurs de projets du Fonds d’expérimentation pour la jeunesse (FEJ) », op. cit.
×

A lire aussi