vendredi, juillet 25, 2008

De l'importance des prélèvements non obligatoires dans la compétitivité

KPMG vient de rendre publique sa traditionnelle étude sur la compétitivité. Cette étude compare le coût total d'implantation d'entreprises dans différents pays (2000 cas d'entreprises, 17 secteurs d'activité). Elle intégre la plupart des facteurs quantitatifs (salaires, impôts, coût des infrastructures et des télécommunications,...) pris en compte dans les choix de (dé)localisation d'entreprises.


La France en ressort en première place du classement européen, avec un désavantage de coût de seulement 3 à 4 % par rapport aux Etats-Unis (et ce malgré la hausse récente de 60 % de l'euro face au dollar).


Sans entrer dans le détail de cette étude, on peut noter l'intéressant comparatif des coûts salariaux moyens :


(cliquer sur le graphique pour l'agrandir)

Il en ressort en effet que si les prélèvements obligatoires sur les salaires sont les plus élevés en France, les prélèvements "non obligatoires" (mutuelle complémentaire prise en charge par l'employeur, retraite complémentaire,...) compensent largement cet état de fait - en plus du niveau moyen des salaires, plus modéré en France qu'ailleurs. Ce qui traduit sans doute en partie le fait que les salariés bénéficient en France gratuitement d'assurance sociales ou de prestations en matière de santé, d'éducation ou de famille qu'ils doivent financer sur leur salaire ailleurs...

jeudi, juillet 24, 2008

Physique des mouvements de foule

Quel point commun entre un tremblement de terre, la cassure d'une plaque, un crash boursier, une révolution ou la montée dans l'opinion d'une personnalité politique ? Selon Didier Sornette et alii, ces phénomène ont en commun un changement rapide de régime dans un système auto-organisé (c'est à dire des systèmes composés d'un grand nombre de systèmes ayant leurs règles propres, par exemple une foule composée d'individus ou un marché financier composé d'acheteurs et de vendeurs).

L'analyse de Sornette permet d'expliquer des phénomènes sociaux tels que :

- le fait que les "ruptures" sont moins détectables lorsqu'elles concernent un ensemble homogène (les militants d'un parti) que lorsqu'elles portent sur un ensemble plus hétérogène (une nation). Ainsi, la percée d'OBama au sein de son parti a-t-elle été fulgurante, et pour beaucoup imprévisible. Là où certains ont pu voir dans cette ascension rapide le fruit d'une "bulle", on peut y voir tout simplement la "crystallisation" rapide d'un succès mérité...

- le fait que, dans des milieux hétérogènes, ces ruptures sont généralement précédées de "fissures" ou de "craquements" dont la fréquence d'apparition peut permettre de prévoir un "rupture" plus forte. Pour Sornette, ces "craquements" traduisent une mise en cohérence d'une partie croissante des "micro systèmes". De la même façon, un crash boursier correspond au moment où un part importante des acteurs partage la même opinion sur la sur-valorisation (par rapport à leur prix) d'un certain nombre d'actions - ces acteurs étant organisés en "grappes" (les traders parlent entre eux, les boursicoteurs aussi,...) ;

- ces "craquements" peuvent être causés par des évènements extérieurs sans rapport avec la source réelle de ce "craquement". Par exemple, un crash boursier de grande ampleur peut se déclencher à la suite d'une nouvelle en apparence de peu d'importance. Pour cette raison, un système soumis à une forte tension (par exemple, une organisation soumise à des règles incohérentes) est ingouvernable, car toute décision, même si ses conséquences sont positives et même si elle est sans rapport avec les problèmes de fond de l'organisation, peut créer une fracture. Pour prendre un exemple ancien, le rejet de la réforme proposée par De Gaulle sur les régions peut entrer dans cette catégorie (mais il y en a de plus récent...).

Cette analyse rejoint une approche moins scientifique (mais à plus grand succès littéraire), celle de Malcom Gladwell.

samedi, juillet 12, 2008

Comment créer la cohésion sociale ? Les critères de Fukuyama

Dans "Le grand bouleversement", le philosophe politique Francis Fukuyama a étudié les critères qui font le niveau de cohésion d'une société ou d'un groupe de personnes.

Selon Fukuyama, les groupes les plus favorables à l’existence d’un lien social fort vérifient les critères suivants :

- la taille du groupe : plus il est large, plus il est difficile aux membres du groupe de se coordonner. Le risque de « passagers clandestins », ceux qui cherchent à profiter des bienfaits de l’action collective tout en évitant d’y contribuer, est plus probable dans une collectivité de taille importante où chacun peut se dissimuler derrière l'anonymat, que dans un groupe restreint où chacun se connaît et peut surveiller.

- l'existence d'une frontière claire entre ceux qui font partie du groupe, et ceux qui n'en sont pas : il est difficile de développer ou de maintenir une forte cohésion dans un groupe dont le périmètre est imprécis (qui empêche de savoir qui fait partie du groupe ou de pouvoir contrôler qui entre et qui sort) ou mouvant.

- la fréquence des relations entre membres du groupe : un groupe dans lequel les acteurs ont des relations nombreuses et répétées (et donc une « réputation à conserver » pour les relations à venir) se prête davantage à une forte cohésion qu’un groupe dans lequel les acteurs se rencontrent de façon plus épisodique.

- l’existence de normes communes favorisant une culture commune : cette culture commune crée un langage commun, des règles communes et facilite la compréhension et la coordination au sein du groupe. Les éventuels conflits peuvent se résoudre plus facilement dans un groupe dont les membres partagent la même culture ou les même valeurs, que dans un groupe comportant plusieurs « classes » de culture ou d’objectifs différents.

- le niveau de justice et l’équilibre des rapports de force : il est difficile d'attendre une forte cohésion d'un groupe dans lequel le pouvoir est réparti de façon inégale ou fondé sur des règles inéquitables.

- le niveau de transparence : une transparence aussi forte que possible est préférable dans la mesure où elle permettra d'identifier rapidement les comportements individuels ou collectifs "anti sociaux".

Une liste qui vaut bien des manuels de management ou de science politique...

Le 21e siécle sera institutionnel et moral, ou ne sera pas !

Tout le monde, ou presque, s'accorde à penser qu'une économie harmonieuse suppose un bon équilibre entre deux objectifs contradictoires. D'une part, la prospérité économique (disons, le niveau du PIB même s'il s'agit d'une mesure perfectible). D'autre part, l'équilibre social (plus difficile à définir, qui contient à la fois les conditions de vie les plus pauvres, l'égalité des chances, le fait que les inégalités de conditions de vie ne soient pas disproportionnées par rapport aux efforts de chacun, le niveau de confiance que chacun peut avoir dans ses concitoyens, ou ...).

Une autre façon de dire les choses consiste à dire que l'argent ne fait pas le bonheur, et qu'une nation florissante doit permettre à ses concitoyens d'avoir de l'argent, mais aussi autre chose. Mais comment parvenir à cet équilibre ?

Une première école de pensée suppose que les deux peuvent être séparés : au secteur privé de fournir la prospérité économique, l'Etat et le secteur non lucratif (groupes religieux, famille, relations de voisinages...) de fournir le reste. Ils notent par ailleurs qu'en raison de la concurrence (entre entreprises d'un même pays, ou entre entreprises nationales plus "sociales" et entreprises étrangères moins soucieuses du bien-être social du pays qui achète leurs produits), il serait difficile pour les entreprises d'être trop sociales, le consommateur choisissant généralement la moins chère, et les actionnaires (ou les futurs retraités pour leur retraite par capitalisation) choisiront d'investir dans les entreprises les plus rentables.

Une deuxième école note considère qu'économie et société sont indissociables, ce qui impose notamment que les entreprises devant faire preuve de responsabilité sociale. Elle notent que les consommateurs sont capables de "faire la différence" s'ils sont correctement informés sur les conséquences sociales de leurs achats.

Comme toujours, la réalité si situe entre les deux :
- il est vrai que la concurrence pose des limites en matière sociale, mais ces limites dépendent du secteur (une partie du secteur des services est contraint à une concurrence très locale) et des réglementations (la fiscalité, les cotisations sociales ou les normes peuvent être différents d'un pays à l'autre) ;
- il est vrai que les produits équitables ou les investissements éthiques connaissent un certain succès, mais il reste très limité en ampleur : le chiffre d'affaires mondial du commerce équitable est d'un milliard d'euros, soit moins de 0,1 % de la production nationale française.

Une façon de réconcilier les deux modèles consiste à traiter les objectifs du second modèle avec les outils du premier. Concrètement, il s'agit d'identifier les "nuisances sociales", de leur donner un prix et de le faire payer à ceux qui les génèrent :
- assurance chômage à bonus/malus pour faire payer le "prix de la précarité". Pour être juste un tel dispositif nécessite une certaine sophistication, notamment pour ne pas pénaliser les entreprises qui recrutent des chômeurs "difficiles" (et donc avec plus de chances d'échec) par rapport à celles qui refusent les demandeurs d'emploi les plus en difficulté ;
- taxe à l'importation compensatrice des avantages sociaux indus. Une telle taxe est probablement très difficile à mettre en pratique, notamment parce qu'elle impose de définir l'avantage indus, produit par produit - avec le risque de pressions protectionnistes. Une variante de ce type de taxe est le projet de taxe sur le "carbone importé", qui vise à corriger l'avantage comparatif dont disposent les usines situées dans des pays qui n'appliquent pas le protocole de Kyoto sur la réduction des émissions de gaz à effet de serre sur les entreprises qui sont soumises à des contraintes (comme les entreprises européennes) ;
- droit social très ferme en matière de lutte contre les discriminations et le harcèlement ;

On notera qu'il subsiste un certain nombre de domaines dans lesquels il est difficile d'introduire ce type de corrections. Par exemple, il serait difficile de construire une taxe sur le stress au travail (difficile à mesurer) - sans parler du malheur au travail ! Tout au plus peut-on organiser une plus grande transparence sur le taux de mobilité (un taux élevé est généralement le symptôme d'une entreprise où il ne fait pas bon vivre, qui devra payer plus cher pour attirer des salariés). Dans une société, c'est généralement le rôle des règles morales de contrôler ce genre de comportements (en éduquant les citoyens pour être sensible au malheur d'autrui, et en faisant en sorte que ceux qui n'y sont pas sensibles soit stigmatisés et aient intérêt à "rentrer dans le rang").

De la même façon, le niveau de cohésion sociale et de confiance d'un pays dépend de nombreuses causes qu'il est difficile d'identifier et auxquelles il est difficile de donner un prix. Il est également lié (j'y reviendrais dans un autre article) à la force et à la nature des régles morales.

Ces derniers points dépendent davantage d'un projet politique, et du rôle des institutions morales, c'est à dire des entités qui organisent et régulent la morale et sanctionnent les comportement "immoraux" : famille, groupes religieux ou associations philosophiques mais également en partie l'Etat, ou les collectivités.

Compte tenu de la montée de la demande d'une société moins individualiste (notamment chez les jeunes), on pourrait déclarer en paraphrasant Malraux "Le XXIe siécle sera celui des institutions morales, ou ne sera pas !".

mercredi, juin 18, 2008

Lutter contre les prix du pétrole ? Oui, avec l'innovation...

Le prix du pétrole bat des records, et cette augmentation pèse évidemment lourd sur le budget des ménages à court terme - et ce d'autant plus que l'augmentation est brutale.

Le budget des ménages a-t-il pour autant vocation à être laminé par l'évolution du prix de l'énergie ? Pas forcément, comme l'indique un chiffre intéressant publié par le cabinet Arthur D Little : entre les années 80 et aujourd'hui, la dépense automobile des ménages a baissé de 25 %. Pour que l'on retrouve une dépense comparable à celle des années 80, il faudrait que le prix du pétrole atteigne environ 200 $ (contre 130 à 140 actuellement).

Pourquoi ? Simplement parce près de 72 % des dépenses liées à une automobile ne concernent pas le carburant :



Or les autres éléments du tableau précédent ont connu des gains de productivité suffisant pour absorber, sur longue période, les hausses récentes de l'essence et même plus. Evidemment, la situation est un peu plus délicate pour le consommateur quand il a pendant longtemps bénéficié des baisses de prix des véhicules automobiles liées aux gains de productivité, et que le prix du pétrole augmente rapidement après être resté longtemps relativement modéré !

Ainsi, des gains de productivité de 1 % par an durant 20 ans dans la construction et la réparation automobile permettent d'absorber l'effet sur le budget des ménages d'une hausse du prix du pétrole d'un tiers sur la même période. Et ceci sans compter l'amélioration du rendement des moteurs.

Pour donner un exemple chiffré, si d'ici 2028 la construction et la réparation automobile connaissaient des gains de productivité de 1% par an, et si le rendement des moteurs s'améliorait d'un tiers, alors nous pourrions atteindre un prix du pétrole de 400 $ par baril, sans que le coût de l'automobile ne pèse plus sur le budget des ménages que ce n'était le cas dans les années 80...


Autrement dit, les manifestations récentes pour la baisse du prix du pétrole se trompent de cible : manifester pour renforcer la recherche et l'innovation dans le domaine des transports et de l'utilisation de l'énergie constitue sans doute un moyen aussi efficace, et davantage à notre portée pour effacer l'effet des hausse de prix du pétrole...

samedi, juin 14, 2008

2025 : le pétaflop pour tous !


Un ordinateur vient de dépasser le pétaflop, c'est à dire le million de milliards d'opérations par seconde, à l'aide d'une machine construite à partir de 116 640 microprocesseurs de consoles de jeux en parallele.

C'est beaucoup. Celà dit, si l'on en croit le graphique ci-dessus attendez-vous à avoir cette puissance sur votre ordinateur en 2025...

samedi, avril 26, 2008

Quelle France dans 15 ans ?

Dans un court article paru à l'été dernier dans la Harvard Business Review, Mansour Javidan présente un schéma intéressant, qui fait apparaître une corrélation assez nette entre la capacité des nations à se projeter dans l'avenir et leur compétitivité :



La France s'y distingue par une compétitivité relativement forte, mais une capacité faible à se projeter dans l'avenir. Et effectivement, plusieurs études montrent que l'avenir inquiete plus qu'il ne fait rêver. Dans le même temps, le succès considérable de livres consacrés à l'avenir semble indiquer que ces angoisses sont plus un problème d'offre que de demande : on ne parle plus assez aux français de leur avenir.

Jusqu'en 1993, date de la fin du dernier plan français, la France avait un rendez-vous institutionnel avec l'avenir. La construction des Plans conduisant à animer un débat sur l'avenir, et à présenter un débat sur les différents scénarios possibles. Elle se poursuivait par des objectifs qui se sont avérés difficiles au fur et à mesure que la volonté d'administrer l'économie s'affaiblissait.

La France n'a donc plus de Plan. Comme d'ailleurs la plupart des pays développés. Les grandes entreprises n'ont d'ailleurs pas non plus de direction du plan. Mais elles ont toutes, même quand elles sont soumises aux actionnaires les plus exigeants en termes de rentabilité - des directions de la stratégie.

Autrement dit, aujourd'hui les entreprises aux mains de fonds de pensions étrangers se dotent de davantage de moyens pour se projeter dans l'avenir que ne le faisait la France. Censées être aux mains "d'actionnaires obnubilés par les profits de court terme", ces entreprises s'intéressent plus à l'avenir que l'Etat...

Nous n'avons pas su prendre le virage du plan à la stratégie, contrairement à ds pays comme la Grande Bretagne (où la Strategy Unit produit régulièrement des diagnostics stratégiques), le Danemark, qui a lancé un conseil de globalisation présidé par le Premier Ministre ou la Corée dont l'exercice "Corée 2030" est reconnu comme l'un des plus réussis du genre.

C'est dans ce contexte que le Secrétariat d'Etat à la Prospective vient de lancer France 2025, un exercice de prospective destiné à nous éclairer davantage sur les tendances les plus structurantes, et les différents scénarios d'évolution envisageables à quinze ans.

Ce travail a débuté le 22 avril dernier par une séance de lancement au Centre d'Analyse Stratégique. Un premier état des lieux - limité à des éléments descriptifs sur 2008 - a été publié à cette occasion.

dimanche, avril 13, 2008

Subprimes, débat sur le pouvoir d'achat : Kondratieff les avait prévus !

L'économiste russe Kondratieff remarqua dans les années vingt que l'économie progresse davantage par phases successives d'accélération et de ralentissement, plutôt que par une croissance régulière.

Selon lui, l'histoire économique est marquée par des cycles économiques que l'on peut diviser en deux phases.

La première phase est une phase d'investissement. Cette phase commence dans la vertu, et accompagne le développement d'innovations importantes (la machine à vapeur, le chemin de fer, l'automobile...), mais bascule progressivement vers un mode plus excessif dans lequel les investissements deviennent progressivement "irrationels" (c'est à dire supérieurs à ce qu'il faudrait, et donc moins rentables que prévu), les prix s'élèvent (car les industriels répercutent sur les clients leurs investissements et leurs attentes - pas nécessairement réalistes - de retour sur investissement). La finance oriente les ressources non plus vers les projets qui vont se révéler les plus porteurs, mais vers les "plus optimistes" - ie ceux capables de promettre un rendement fort, mais impossible à soutenir.

La fin de la première phase est donc marquée par une euphorie (nuancée par les doutes de quelques économistes, largement ignorés) qui prépare des "lendemains qui déchantent". Au "point de retournement", qui marque la fin de la première phase, les prix sont élevés. Les attentes des entreprises (des profits élevés fondés sur une poursuite infinie de la croissance de la consommation) comme celles des consommateurs (des hausses de salaires fondées sur la poursuite infinie de la hausse des profits des entreprises) sont déçues. Les conflits de répartition se développent (pouvoir d'achat, conflits de territoire, guerres liées au contrôle des matières premières, lutte pour la protection de rentes ou de privilèges...). On constate une incapacité de la société à affronter ses propres contradictions, et une tendance à la recherche de boucs émissaires à des problèmes dont les causes profondes sont pourtant internes : les mêmes raisons qui font la vertu et la cohésion d'une société (cohésion qui lui permet de réunir les ressources nécessaires au développement des grands projets industriels de début de phase) conduisent également aux mouvements moutonniers qui annoncent les excès de fin de phase...

La seconde phase du cycle est une phase d'ajustement, qui s'accompagne d'une baisse des prix et des taux d'intérêts. C'est une phase décrite par Schumpeter "de destruction créatrice", dans laquelle les secteurs surdéveloppés pendant la fin de la phase d'euphorie font place progressivement à des secteurs plus porteurs qui préparent les innovations à venir. Cette phase prépare une nouvelle vague
d'innovations, qui ouvre la voie du cycle suivant.

Sans donner trop d'importance à la précision des dates indiquées ci-dessous, on peut distinguer les cycles suivants, chacun étant lié à des innovations majeures.


(cliquer pour agrandir)


Bien sur, la fin d'un cycle n'est jamais datée de façon précise - ainsi les premiers travaux qui ont ouvert la voie au développement du numérique datent de bien avant 1990. De la même façon, la fin d'un cycle coïncide généralement avec le début du suivant sans que personne ne puisse dire précisément où l'un finit et l'autre commence. Malgré ces nécessaires imprécisions, la théorie de Kondratieff permet de donner un éclairage historique à certains phénomènes :

- les conflits de répartition (pouvoir d'achat, protection des rentes,...) ne peuvent trouver de réelle solution que dans le démarrage d'une nouveau cycle, c'est à dire dans l'innovation et la croissance

- le rôle de l'industrie financière est ambivalent, puisqu'elle fournit à la fois les moyens de financement des innovations de première phase, et les mécanismes complexes qui facilitent les excès et qui préparent la fin de cette phase. La crise des subprimes illustre parfaitement ce second rôle, le premier correspondant davantage au rôle du capital risque ou du Nasdaq dans le développement des géants du logiciel et de l'internet américain.

- les politiques de la concurrence, les règles du commerce mondial et le système de protection sociale jouent également un rôle important, notamment dans le cycle actuel. En effet, en phase de "destruction créatrice", les entreprises vont chercher à atteindre une rentabilité qui ne sera plus à la portée de certaines d'entre elles. Pour celà, elles vont rechercher des marges de manoeuvre sur leurs principaux facteurs de production - dont le facteur travail (réduction des hausses de salaire, efforts de productivité,...). Elles le feront d'autant plus qu'elles sont concurrencées par des pays pratiquant des normes sociales nettement moins exigeants (et donc dans lesquels les entreprises trouvent plus facilement la solution à leur difficultés aux détriments des salariés). Par ailleurs la "destruction créatrice" sera d'autant plus difficile et douloureuse que le modèle social protège les statuts plutôt que les personnes (sur cette question essentielle, lire l'article lumineux de John Sutton).

Notons enfin qu'un bon indicateur de cycle à surveiller est le secteur d'embauche des jeunes diplômés. Les fonctions les plus valorisées marquent en effet les priorités d'une époque...


(cliquer pour agrandir)


PS : Sur le même sujet, une perspective historique intéressante de Carmen Reinhart.

samedi, mars 08, 2008

Pour gagner en bourse : acheter bas, vendre haut et éviter les frais !

NB : Une actualisation de cette analyse est disponible ici.

Sur le long terme, entend-on parfois, ce sont les actions qui rapportent le plus. C'est globalement vrai, comme le montre le graphique suivant, correspondant à la valeur de 1000 euros investis respectivement :
- courbe rouge : dans le CAC40 via un courtier gratuit (il existe actuellement des low-costs, il est vrai que c'était plus rare il y a 20 ans)
- courbe orange : dans le CAC40, après déduction des frais prélevés par une assurance-vie en action "typique"
- courbe bleue : dans des obligations d'Etat

(Cliquez sur le graphique pour l'agrandir)



Il y a cependant deux bémols. D'abord, les frais de gestion, s'ils sont élevés, viennent réduire le rendement des actions. Sur le graphique suivant, c'est la différence entre la courbe rouge (rendement du CAC 40) et la courbe orange (rendement du CAC 40 moins des frais correspondant au total des frais prélevés sur un contrat d'assurance vie typique).

Ensuite, s'il est vrai (cas 1, courbe pointillée en vert) que celui qui aurait investi dans le CAC 40 fin 1987 et aurait revendu ses actions en mars 2008 aurait multiplié sa mise par 6,3 (contre 3,3 s'il avait choisi les obligations), celui qui aurait acheté au même moment pour revendre en mars 2003 (cas 2, courbe pointillée noire) aurait connu un rendement nettement inférieur, du même ordre que celui qu'il aurait obtenu s'il avait acheté des obligations.

Quant à celui qui aurait acheté des actions en mai 1990 pour revendre en mars 2003 (cas 3, courbe pointillée en rose) aurait augmenté sa mise de 29 % seulement en 13 ans, soit à peine plus que les prix (+26 %) et nettement moins que les obligations (+124 %) !

Si l'on ajoute à celà que de nombreuses études montrent que le gestionnaire moyen ne fait pas mieux AVANT FRAIS que le CAC40, ce qui signifie qu'un certain nombre d'entre eux font moins bien, on peut en déduire quatre conseils d'investissement :
1 - bien choisir le moment d'entrée et de sortie et adaptez votre stratégie en fonction de la durée d'investissement, et du risque que vous pouvez avoir de devoir céder votre portefeuille au plus mauvais moment.
2 - éviter les frais en privilégiant les placements aux frais les plus faibles dans une classe d'actif (c'est sur le long terme un indicateur plus fiable du retour pour l'investisseur que la performance passée)
3 - éviter les stratégies d'investissement complexes : au-delà du fait qu'elles sont généralement associées à des frais élevés, les études montrent généralement qu'elle ne rapportent pas plus, et parfois moins, que les stratégie plus simples (comme suivre le CAC40)

Pour ceux que ces questions intéressent, je recommande l'excellent ouvrage "Le Hasard Sauvage" ("Fooled by randomness" en VO).

samedi, mars 01, 2008

La révolution des "usines personnelles"

Chacun ou presque peut aujourd'hui, pour quelques centaines d'euros, disposer à domicile d'équipements permettant de reproduire des textes, des images ou des sons à partir d'informations transmises par internet.

Ce sera bientôt possible pour des objets, grâce à la révolution des "personnal desktop factories" qui s'annonce : une société prévoit la mise sur le marché pour 5000 $ (environ 3300 euros) d'une machine capable de produire un objet en 3D à partir d'un fichier. Des entreprises existent déjà, capable de produire à l'unité et pour des prix relativement réduits des modèles de toute forme décrite dans un fichier informatique payables par internet et livrées par la poste.

Si l'on en juge à ce que peuvent produire des machines professionnelles, sur des matériaux allant du plastique au métal, ces techniques ont de beaux jours devant elles.

Restent donc à développer des technologies capable de véhiculer les deux derniers sens non encore "téléchargeables" : l'odorat et le gout.

jeudi, février 28, 2008

Flexicurité, flexisécurité, c'est quoi ?

On a beaucoup parlé du fameux "modèle danois", mélange de flexibilité pour les entreprises et de sécurité pour les salariés. Un rapport récent fait le point sur la réalité dans différents pays européens. Il confirme qu'il n'y a pas de modèle unique, chaque pays concoctant "son" cocktail en la matière.

Or la façon dont une nation réussit à s'adapter tout en sécurisant ceux qui pourraient être menacés par ces adaptation est un facteur crucial de compétitivité - comme John Sutton l'a montré mieux que personne.

Reste à la France trouver le sien, le récent accord conclu entre partenaires sociaux montrant la première étape : réussir à établir une dialogue "gagnant-gagnant" entre salariés et entreprises...

mardi, février 12, 2008

Déficit commercial : absurde ou non ?

Nicolas dénonce l'attention donnée au déficit commercial. Entièrement d'accord avec l'idée qu'il n'y aurait aucun sens pour un pays à chercher à avoir le plus gros excédent commercial possible : outre le fait qu'une part croissante de l'économie est composée de services, accumuler des excédents éternels signifierait faire cadeau de nos produits au reste du monde, là où il est surtout intéressant de les échanger (en gros, du champagne contre des IPod).


Faut-il pour autant négliger l'évolution du commerce extérieur ? Pas nécessairement :
le commerce extérieur n'est pas un objectif final de politique économique, mais c'est un indicateur (qui contient du signal et de bruit, mais qui reste un indicateur) de compétitivité. Une dégradation forte, durable, et inverse de celle de nos partenaires cache généralement un problème si ce n'est pas expliqué par autre chose (décalage de cycle de croissance,...).

Autant il est vrai que le mercantilisme n'a aucun sens (chercher à avoir des excédents éternels), autant on ne peut pas ne pas s'interroger sur la situation actuelle, qui est un indicateur de faiblesse économique (dont la seule lecture brute ne suffit pas, mais qui donne une information qu'aucun autre indicateur ne donne sur la facon dont nos produits correspondent à la demande mondiale).

Sur la diagnostic sur ce point et sur les solutions à apporter je recommande un très bon article de John Sutton (cf notamment les graphiques étonnants).

jeudi, janvier 31, 2008

Quelques réflexions sur les organisations complexes

L'un des meilleurs livres de management pour certains, The Logic of Failure réussit à expliquer la logique de fonctionnement des grosses organisations.

En le lisant, on comprend bien pourquoi un certain style relationnel (peu d'émotions, grande prudence, grande rigueur...) est souvent le plus adapté au fonctionnement dans les grandes organisations. Pourquoi ? Simplement parce que tout mouvement peut être amplifié 10, 100, 1000 fois par le jeu de la circulation de l'information. Dès lors, le style le plus adapté est celui dans lequel les inflexions données par le chefs sont progressives, peu nombreuses et lisibles. Et effectivement, ce style est dominant (et souvent le mieux adapté) dans les structures matures. On le retrouve chez les "généraux en temps de paix" - comptent davantage les qualités nécessaires au maintien de l'harmonie interne que celle utiles pour remporter une bataille ou imaginer des scenarios improbables.

On pourrait poursuivre en notant qu'en cas de situations extrêmes (retournement, crise majeure,...) d'autres profils émergent - beaucoup moins lisses, et même quelquesfois un peu extravagants. Ce sont des "généraux de temps de guerre". En effet, dans ces situations c'est moins le maintien de l'harmonie qui compte, qu'au contraire le fait de sortir l'organisation de ses habitudes et de son harmonie, d'identifier la "nouvelle harmonie" et d'y entraîner l'organisation. Ainsi dans sa biographie, Jack Welsh explique-t-il qu'il a failli être évincé de la course à la présidence de General Electric, précisément parce qu'il n'était pas consensuel.

samedi, janvier 26, 2008

Pertes de la Société Générale : quelques réponses

Que s'est-il passé exactement ?

Les Echos publient une note d'explication de la Société Générale qui décrit les faits et kleur enchainement.

Comment une personne isolée a-t-elle pu jouer en bourse un montant peut-être supérieur (certains parlent de 40 mds) à la valeur de la SG ?

Cette opération n'entre évidemment pas dans le cadre d'un fonctionnement normal, et n'a pu intervenir que grâce à des falsifications dans le système de suivi et de limitation des risques. Schématiquement, une banque peut faire des "paris" énormes, dès lors que ces "paris" sont compensés par des paris inverses - de telle sorte que si la banque perd d'un coté, elle gagne de l'autre. Le système de contrôle des risques d'une banque est conçu pour s'assurer de ceci. Le problème à la SG semble avoir été que le trader aurait introduit dans le système de "faux paris" qui donnaient (à tort) l'impression que les positions qu'il prenait sur le marché étaient compensées. Ce qui n'était pas le cas.

Reste que la justice devra préciser les responsabilités du trader, de sa hiérarchie au vu des éléments qui figureront dans le dossier (les contrôles internes étaient-ils assez solides ? les procédures en matière de séparation des activités de trading et de contrôle ou de modification des autorisations d'accès des salariés chargés du contrôle lorsqu'ils rejoignent le trading (ce qui a été le cas de la personne concernée) assez robustes ? A ce stade le "trader isolé" bénéfice de la présomption d'innocence...

Est-il normal qu'un jeune de 31 ans puisse jouer avec des milliards ?

Dans le cas de la SG, il semble que le montant des positions traitées par le trader soient liées à des falsifications comptables. Mais d'une façon plus générale, l'industrie de la finance, qui vise à faciliter l'intermédiation entre ceux qui ont de l'argent à placer, et ceux qui en ont besoin, suppose de faire passer, d'une façon ou d'une autre, beaucoup d'argent par peu de personnes.

Les clients de la société générale sont-ils menacés ?

Non : la perte sera imputée aux actionnaires (essentiellement via une forte réduction des bénéfices, qui se traduira sur le prix de l'action). La banque ayant reconstitué ses fonds propres en faisant appel au marché, la solidité de la banque n'est pas menacée (et d'ailleurs, si elle l'était, il existe en France un système de garantie des dépôts qui protégent l'épargne des clients jusqu'à un plafond de 70.000 euros par personne).

La banque aurait-elle du prendre plus de temps pour solder le problème ?

Certains ont plaidé cette idée. J'ai des doutes dans la mesure où la fraude a certainement eu pour conséquence de porter l'exposition au risque de la Société Générale au-delà de ce qui lui était possible : dès lors, la seule possibilité était de négocier avec le régulateur un délai de retour à la normale, qui ne pouvait certainement pas s'éterniser. Que ce retour rapide à la normale coûte à la banque n'est pas le soucis du régulateur, dès lors que ce coût ne remet pas en cause la pérennité de la banque : raisonner autrement reviendrait à accepter qu'une banque mette en risque sa solvabilité (et il y a des façon profitables de le faire) en sachant qu'elle pourra toujours négocier une façon "peu coûteuse" de revenir à la normale.

samedi, janvier 05, 2008

L'ordinateur a 66 euros

L'ordinateur à 66 euros (100 dollars) est un projet intéressant, qui visait à produire en masse un ordinateur portable peu coûteux et adapté aux pays en voie de développement - en quelques sortes la "logan du PC". Il s'agissait en même temps d'appliquer la logique du "logiciel libre" à la production industrielle d'ordinateurs.*

Si l'on en croit The Economist, il semblerait que cette tentative tourne court. Notons quand même que l'intiative OLPC aura certainement stimulé la concurrence, mettant sur le marché des modèles d'ordinateurs portables à un peu plus de 250 euros (l'ASUS eee), prix américain.

Celà dit, d'autres commentateurs donnent une vision plus favorable du projet. A suivre...

Juger l'action publique aux résultats ?

On a vu çà et là des débats suite à l'annonce de la mise en place de "tableaux de bord ministériels", précisant les objectifs fixés à chaque ministère.

Notons d'abord que cette proposition est entièrement cohérente avec le politique "de résultats" (revendiquée d'ailleurs à gauche comme à droite), présentée lors de la campagne, qui a sans doute eu un effet significatif sur le résultat des élections.

De quoi s'agit-il ? De mettre en place un système de suivi, certainement pas un système scolaire visant à donner des bons et des mauvais point, mais plutot un "systeme de suivi de la performance" permettant de voir ce qui va, ce qui ne va pas, et de poser des questions quand les objectifs ne sont pas atteints : les moyens sont-ils insuffisants ? Les objectifs doivent ils être adaptés à la conjoncture ? La méthode de mise en oeuvre est-elle à revoir ? Une expertise extérieur doit-elle être utilisée ?

Sur ce sujet il faut éviter les débats trop théoriques, et raisonner de façon pragmatique.

Historiquement, les politiques étaient-ils plus jugés sur les annonces que les résultats ? Reponse, oui.

Est-ce un problème qui mérite d'être changé ? Reponse, oui. La crédibilité des politiques, mais surtout la qualité du service public en dépendent.

Les mesures prises vont-elles dans le bon sens ? Reponse, oui :
- les programmes présidentiels ont été chiffrés (chiffrage qui présente sans doutes des limites, compte tout référentiel comptable, mais qui reste préférable à l'absence de chiffrage)
- les ministres vont être davantage impliqués sur leurs lois de reglement (ie, défendre leurs resultats au regard des critères fixés par la "LOLF", qui associe désormais au montant des crédits accordés par le parlement des indicateurs de résultats)
- ils disposent d'une feuille de route (les lettres du président de la République et du Premier Ministre aux différents ministres)
- la mise en oeuvre de leurs politiques sera jugée sur la base d'objectifs précis, ce qui n'exclut évidemment pas un regard plus large, qui ne manqueront pas de porter les différents contre-pouvoirs (presse, opposition dont les pouvoir sont renforcés notamment à la commission des finances de l'assemblée nationale, Cour des Comptes,...) pour éviter de sombrer dans une "politique du chiffre". Et ce qui ne préjuge pas des solutions à apporter quand les objectifs ne sont pas atteint - cellule de crise, renforcement des moyen, changement de méthode, réappréciation des objectifs...

Est-ce un "déni de démocratie" substituant à la sanction du vote un contrôle "technocratique" ? Certainement pas : les électeurs resteront les seuls juges. Simplement, fait nouveau, ils disposeront d'éléments plus précis pour constituer leur jugemeent : qui peut regretter qu'on lui donne une information supplémentaire ?

Le systeme peut-il etre amelioré en théorie ? Reponse : forcément oui mais il vaut mieux avoir des améliorations réelles tout de suite, qu'une systeme théoriquement parfait, mais jamais : ce qui marche n'est en general pas d'une complexité folle (les systemes de productions à flux tendus de l'automobile tournent en grande partie sur des cartes en carton et des caisses en bois, les systemes informatiques complexes ayant montre leur inadaptation).

Risque-t-on un jour d'avoir le probleme inverse de la situation actuelle (ie, un systeme public trop focalisé sur le résultat chiffré) ? C'est difficile à dire. Mais actuellement le probleme est plutot l'excès inverse !

Reste une question : pourquoi ce débat ? Il marque sans doute les tensions liées au passage d'un monde à un autre : celui où la politique consiste à faire des annonces, et où les contrepouvoir les critiquent, à un monde où la politique consiste à fixer, puis à remplir des objectifs, et où les contrepouvoirs doivent les contre-expertiser. A cet égard, il est amusant de constater davantage de critiques des seconds que des premiers, un peu comme si la remise en cause de leur propre rôle leur posait des difficultés...

Sur ce sujet, je vous invite à lire le très intéressant livre de Michael Barber : Instruction to Deliver

mercredi, décembre 26, 2007

Plus de social pour plus de compétitivité : le paradoxe de Sutton

John Sutton a publié dans la revue Progressive Politics une étude (traduit par la Fondation jean Jaures ici) essentielle à deux titres D'abord, elle donne une explication extrêmement claire de l'évolution de la mondialisation, et de son impact sur les économies des pays développés. Ensuite, elle explique, avec tout autant de clarté, comment cette évolution n'empêche en rien un pays tel que la France de mener une politique sociale ambitieuse.

Cette étude distingue trois phases dans la mondialisation. Dans la première, les exports des pays à bas coûts du travail sont essentiellement produits à partir de main d'œuvre peu qualifiée - du textile ou de l'habillement par exemple. Dans une deuxième phase, ils intègrent également de la main d'œuvre qualifiée, comme dans l'électronique grand public. La troisième phase correspond aux cas dans lesquels ces pays exportent aussi des produits très capitalistiques, dont le prix n'est plus lié au coût de la main d'œuvre. Ce que montre clairement l'étude de la fondation Jean Jaurès, c'est que les pays tels que l'Inde et la Chine ont depuis le début des années 1990 dépassé la troisième phase. Et, en effet, les activités informatiques sont en trains d'être délocalisées vers l'Inde, et c'est une entreprise chinoise, Lenovo, qui a mis la main sur l'activité de microordinateur d'IBM qui avait donné naissance au PC.

Dans ce contexte, certaines stratégies industrielles sont vouées à l'échec. D'abord, celles qui sont fondées sur l'idée – désormais fausse – qu'il existe des activités dans lesquelles les pays développés disposent d'un avantage absolu durable. S'il existe des entreprises françaises compétitives, elles le doivent de moins en moins à ce qu'elles produisent, et de plus en plus à la façon dont elles ont su évoluer pour rester compétitives. Les stratégies fondées sur le "nationalisme économique" sont également condamnées, car pour être compétitif au niveau mondial les entreprises doivent pouvoir disposer des meilleurs fournisseurs. Autrement dit, pour être compétitif à l'export, il faut être compétitif dans ses achats, et donc à l'importation.

Mais, même dans un contexte aussi compétitif, il n'y a pourtant pas de fatalité, et il reste possible de construire un modèle social généreux. Mais, sauf à tirer vers le bas le pouvoir d'achat national, la générosité de ce modèle ne peut plus se mesurer au niveau de stabilité des postes et des statuts (et notamment ceux de ses cadres supérieurs). Or c'est pourtant ce qui caractérise le modèle français, qui indemnise une fraction de l'ancien salaire au lieu d'accompagner vers le futur emploi, qui traite mieux les vieux que les jeunes, qui accompagne davantage les salariés de grands groupes que les salariés des PME ou les indépendants.

Ecoutons plutôt Sutton : nous pouvons avoir un modèle aussi généreux mais plus compétitif si cette générosité vise non pas la stabilité des postes, mais la recherche du meilleur emploi, c'est à dire l'identification pour chacun du meilleur compromis possible entre ce qu'il veut, ce qu'il peut et les diffférentes possibilités que pourrait lui offrir le marché du travail, au besoin après une formation (voir sur ce sujet le site www.supprimerlechomage.org). Mais pour valoriser ainsi la diversité et la créativité collective des Français, il y a sans doute un préalable : la diversité et à la créativité de nos responsables publics.

Toyota, premier constructeur automobile mondial

Toyota est devenu le premier constructeur automobile mondial, devant General Motors (Buick, Cadillac, Chevrolet, Daewoo, GMC, Holden, Hummer, Opel, Pontiac, Saturn, Saab, et Vauxhall).

Cette information est intéressante à au moins deux titres :

- d'abord, elle marque le retour en grace de l'industrie japonaise : qui se souvient des craintes américaines et européennes face au Japon dans les années 80 ? Ces craintes sont retombées avec l'envolé du cours du yen, puis l'effondrement de la bulle financière (confirmant au passage la malédiction selon laquelle faire la Une de la presse économique condamne à la faillite quelques années plus tard!). Dix années plus tard, c'est Renault qui venait au secours de Nissan et redressait avec succès l'entreprise. Dix ans de plus et c'est Toyota qui devient numéro un mondial !

- ensuite, elle illustre la nature des avantages comapratifs dans une économie mondialisée : la Japon n'est en effet pas un pays à bas coûts de main d'oeuvre.
(même s'il est vrai que les Etat-Unis ont dans le secteur automobile une convention collective très généreuse, la France étant quant à elle plutpot un pays à bas coût).
Si Toyota est compétitif, c'est pour deux raisons : d'abord Toyota exporte bien car elle sait bien importer (autrement dit, elle sait trouver les composants les moins couteux et les meilleurs pour rendre ses voitures compétitives).
Ensuite, les japonais ont su développer une supériorité en matière d'organisation, copiée depuis par le monde entier, mais dont Toyota peut être considéré comme "l'inventeur".

Autrement dit, on peut encore avoir, dans les pays développés, des champions industriels - dès lors que l'on a compris la leçon zéro de la performance dans une économie en concurrence :

- ne jamais chercher à faire soi-même ce que d'autres peuvent faire moins cher
- être très compétitif dans les tâches d'organisation et de conception.

Un pays ayant une tradition d'ingénieurs tels que la France (et de nombreux autres points communs avec le Japon) pourrait utilement s'en inspirer...

samedi, décembre 15, 2007

You are remembered for the rules you break

Gérer l'équilibre entre le long et le court terme : c'est la principale difficulté posée à beaucoup de décideurs.

Pour un chef d'entreprise : comment assurer le rendement demandé par ses actionnaires tout en investissant les montants nécessaires (formation, recherche, investissements,...) pour préparer les profits de demain ? Comment résister à la tentation des "modes" (de la bulle internet, à la folie des subprimes en passant par les investissements dans des zones prometteuses sur le papier, mais ruineuses en pratique) tout en gardant une crédibilité suffisante pour conserver son poste ?

Pour un homme politique : comment répondre aux demandes - souvent pressantes - de l'opinion publiques (pouvoir d'achat, sécurité dans les ascenceurs, lutte contre les chiens dangereux...) tout en assurant l'avenir (éducation, recherche, maitrise de la dette) ? Comment garder une popularité suffisante pour rester en place tout en rendant publiques les incohérences collectives ou les "mythes ruineux" qui bloquent le progrès du pays (tels que la croyance dans une martingale pour régler le manque de financement des retraites sans devoir un jour réduire les pensions ou augmenter les cotisations) ?

Pour cette raison, ceux d'entre eux qui font le meilleur travail sont rarement les plus populaires - trancher des questions difficiles, rendre publics les non-dits qu'une société se refuse d'assumer sont rarement des sources de popularité immédiate. Mais le bilan s'inverse à long terme : comme le soulignait le Général Mac Arthur "You are remembered for the rules you break" - ce que l'on pourrait traduire par "Seules les ruptures laissent des traces dans l'histoire"...

samedi, novembre 17, 2007

Tout savoir sur les agences de notation et les subprimes sans oser le demander, confiance et croissance

Rama Cont, professeur a Columbia, a écrit un article éclairant sur le rôle des agences de notation. Il dépasse, de loin, tout ce que j'ai pu lire avant sur le même sujet.


Disponible ici


Je vous signale également une excellente étude publiée par le Sécratariat d'Etat à la Prospective sur le lien entre confiance et croissance.

Disponible ici

mardi, novembre 06, 2007

Le chômage en France : un problème de gestion des risques

Beaucoup de chômage, peu de moyens pour aider les chômeurs

La France se distingue par la sous-utilisation de sa main d’œuvre qui touche particulièrement ceux qui tentent d’entrer ou de réentrer sur le marché du travail – qu’il s’agisse de salariés licenciés ou non reconduits (contrat à durée déterminée, interim), de jeunes à la recherche d’un premier emploi, ou de seniors poussés vers des préretraites ou tenus à l’écart de l’emploi. Au total, près de 15 à 20 % de la population active est ainsi inutilisée (1) . Une autre partie de la main d’œuvre sous-utilisée concerne des salariés titulaires d’un emploi mais surqualifiés (jusqu’à 25 % des salariés selon les estimations) ou encore ceux qui disposent d’un potentiel que notre économie ne sait pas pleinement utiliser.

Notre pays se caractérise également par la faiblesse de ses résultats en matière de traitement du chômage. Les montants très élevés – de la dépense pour l’emploi ou de la formation professionnelle – cachent des résultats médiocres ainsi que l’attestent deux simples statistiques. En effet, selon un premier chiffre issu de l’enquête « Emploi du temps » de l’Insee, un demandeur d’emploi français passe, en moyenne, environ trente minutes par jour à chercher un emploi. Cela montre à quel point nous laissons l’individu démuni face à un problème (le chômage) dont la responsabilité est pourtant majoritairement collective (2) . Et, selon un second chiffre, à la question « Avez-vous bénéficié d’une formation l’an dernier ? », les salariés français sont ceux qui, en Europe, répondent le plus souvent par la négative car notre système de formation professionnelle concentre ses moyens sur les individus déjà les plus qualifiés.

Il y a désormais consensus sur le fait que notre système est inadapté. En revanche, il n’y a pas accord sur les causes profondes du chômage.

Le chômage en lien avec la gestion collective des risques économiques

La cause profonde du chômage français tient à notre incapacité collective à gérer le risque économique, notamment parce que nos institutions fonctionnent sur des schémas d’il y a cinquante ans – c'est-à-dire d’une époque antérieure à la libéralisation des marchés financiers ou des biens et services. Ces libéralisations ont apporté de nombreux bénéfices aux consommateurs (plus de choix et de pouvoir d’achat) et aux entreprises (un accès plus simple et plus ample au financement), au prix d’une accélération de la transmission des chocs économiques. Schématiquement, le délai entre la perte de compétitivité d’un produit (devenu trop cher ou ne correspondant plus au goût du consommateur) et la remise en cause de l’emploi de celui qui le fabrique s’est considérablement réduit : c’est une bonne nouvelle pour la productivité, mais une moins bonne nouvelle pour les salariés.
En effet, auparavant, les salariés étaient protégés par le fait que les entreprises « amortissaient » les chocs économiques notamment grâce à l’existence de barrières à l’entrée d’entreprises concurrentes et de produits alternatifs. La libéralisation financière et le développement de la concurrence intra-européenne et mondiale ont accéléré la rupture de ce « pacte » – qui n’était sans doute pas soutenable à long terme dans une économie ouverte – sans pour autant qu’un système plus cohérent n’ait été mis en place pour le remplacer. Notre système de protection individuelle contre le risque économique s’est progressivement réduit, au point que les Français perdant leur emploi, notamment les plus modestes, se considèrent victimes d’une profonde injustice : celle de devoir supporter à titre individuel les effets d’un dysfonctionnement, le chômage, dont les causes sont collectives.

Aucune des politiques publiques mises en place n’a abordé ce point fondamental qui aurait nécessité un véritable « changement de paradigme » dans la façon de concevoir nos politiques sociales. À la place, il a été plus confortable et moins dérangeant de traiter les symptômes avec des politiques pour les jeunes (emplois aidés, aides à l’insertion), pour les seniors (préretraites, contribution « Delalande » taxant le licenciement de salariés âgés – et décourageant de fait leur embauche –), pour les victimes de plans sociaux (qui représentent moins de 10 % des entrées au chômage et font souvent moins de victimes que les plans de terminaison massive de contrats d’interim), ou encore en créant des guichets qui accueillent les demandeurs d’emploi sans disposer des moyens de les aider vraiment. L’une des meilleures illustrations des limites de ce traitement symptomatique du chômage est sans doute la concomitance paradoxale entre une baisse des charges destinée à favoriser l’emploi (en rétablissant les profits par la baisse des coûts salariaux) et l’augmentation du Smic au-delà de l’obligation légale – qui a eu l’effet exactement inverse.

Gérer les risques économiques avec justice et efficacité

En résumé, notre économie subit des chocs divers (innovation, concurrence, modification des goûts des consommateurs, épuisement de ressources rares…). Même si certains de ces chocs sont au bénéfice de la collectivité, ils représentent tous des risques pour les individus (salariés, patrons de petites et moyennes entreprises, PME). Le problème politique pourrait être résumé ainsi : gérer ces risques avec justice et efficacité.

L’objectif de justice

Cet objectif conduit à faire en sorte que l’impact de ces chocs soit réparti de façon équitable. La tâche est difficile, comme le montrent deux exemples :
- en matière d’ouverture à la concurrence internationale, la bonne solution n’est ni de supprimer brutalement les droits de douane, ni de créer des barrières à l’entrée, mais de conserver (temporairement) des droits de douane limités dont le montant permette de financer l’ajustement des secteurs touchés par l’ouverture des frontières, de façon à ce que « les gagnants payent pour les perdants ». C’est très indirectement ce qui a été fait dans le secteur automobile dont l’ouverture à la concurrence a été progressive, les constructeurs ayant obtenu des restrictions sur les modes de distribution qui ont, de fait, bloqué l’entrée des modèles étrangers. Entre temps, le secteur automobile français a pu se mettre à niveau notamment grâce à l’aide de l’État en matière de préretraite. Cependant, il est la plupart du temps très difficile d’identifier les gagnants, les perdants, et d’organiser des transferts des premiers vers les seconds.

- de la même façon, il est généralement difficile de taxer les nouveaux produits pour financer « les perdants de l’innovation ». On peut cependant citer l’exception des contributions mises en place sur les supports informatiques pour financer les auteurs ou interprètes « victimes » des innovations liées au numérique.

Au total, les difficultés pratiques conduisent rapidement à renoncer à des outils sectoriels au profit d’outils généraux : faire contribuer les gagnants par le biais de taxes sur les profits ou sur les tranches élevées de revenu, aider les perdants par le biais de dispositifs de « sécurisation des parcours professionnels ». Notons au passage que l’on peut également faire en sorte que notre système évite de pénaliser les perdants, par exemple. C’est l’objet du débat sur la TVA sociale qui vise à asseoir – comme quasiment partout ailleurs dans le monde – le financement de prestations générales liées à la famille ou la santé sur des impôts généraux (lesquels taxent les consommateurs de produits importés, c’est-à-dire les « gagnants » de la mondialisation) plutôt que sur des contributions pesant sur les salaires (qui aggravent les difficultés des « perdants »).

L’objectif d’efficacité

Cet objectif implique, quant à lui, de faire porter les risques économiques par ceux qui peuvent les contrôler.
Dans ce domaine, notre système peut être largement amélioré (3) .
Notre système d’assurance chômage fait payer une prime unique quel que soit le risque du contrat (CDI, CDD, interim…) et quelles que soient les pratiques d’emploi de l’entreprise concernée. Les États-Unis, de leur côté, pratiquent un système de bonus/malus qui permet d’éviter de faire subventionner les secteurs qui « consomment » de la précarité par ceux qui ont une structure d’emploi plus stable, ou qui préparent davantage la reconversion professionnelle de leurs salariés. S’il est clair qu’un système de bonus/malus contient une part d’arbitraire qui peut générer des injustices (4), il reste globalement plus juste et beaucoup plus efficace qu’un système sans modulation. Dans le domaine de l’assurance chômage, un tel dispositif devrait évidemment être accompagné d’un certain nombre d’adaptations, notamment pour assurer qu’il ne dissuade pas d’embaucher les salariés les moins employables.

Comme l’explique brillamment John Sutton (5) , notre incapacité à protéger nos concitoyens contre les risques économiques pèse lourdement sur la compétitivité et l’efficacité de notre économie. En effet, la compétitivité d’un pays tel que la France tient avant tout en sa capacité à prendre rapidement des positions dans des secteurs porteurs, et à intégrer dans sa production des produits à bas coûts : pour être compétitif à l’export, il faut savoir bien importer. Il sera donc très difficile d’être compétitif si le dispositif public ne garantit pas que les agents économiques les plus exposés (salariés, petits commerçants, entrepreneurs…) ne soient pas trop perdants (6) . Plus généralement, cette « rigidité française » conduit à vivre comme une menace tout changement, même lorsqu’il est porteur d’amélioration.

Enfin, le statut du chômage est actuellement un statut par défaut – c’est le statut de ceux qui n’en ont plus –, stigmatisant du point de vue social (un demandeur d’emploi est isolé, parfois considéré comme une charge, et souvent suspecté). Au contraire, on devrait considérer que celui qui passe du temps à identifier le poste qui utilise au mieux ses compétences, et à s’y préparer (via une formation par exemple), réalise une tâche utile socialement : il permet de faire en sorte que la réserve de compétences de notre pays s’adapte au besoin du marché. Dans cette perspective, l’indemnisation du chômage cesserait d’être une aumône ou un dû pour devenir un revenu correspondant à une réelle activité. Cela supposerait de définir un rôle d’« employeur de dernier ressort » (qui existe sous une forme ou sous une autre dans la plupart des pays développés), assurant à ceux qui se sont engagés dans cette voie un débouché, sous des conditions et dans un cadre à définir. Il pourrait s’agir de l’État (sous la forme d’emplois aidés à la française, ou encore d’allocations de handicap à la nordique), ou d’entreprises qui tiendraient ce rôle par délégation de l’État (comme c’est déjà le cas via les aides à l’emploi ou les quotas d’emploi de travailleurs handicapés).

Conclusion

Au final, cette analyse revient à admettre qu’une économie de marché génère plus de richesses mais également plus de risques. Si l’on souhaite éviter que ces risques pèsent sur les plus vulnérables, il nous manque au moins trois éléments essentiels.

D’abord, un meilleur partage des risques avec une cotisation bonus/malus pour financer l’assurance chômage (sous une forme adaptée aux spécificités du domaine social) et une définition claire des missions et responsabilités de l’« employeur de dernier ressort » (sans lequel il n’est pas possible de garantir totalement contre le risque économique). En contrepartie, une partie des risques qui pèsent sur l’entreprise (risques juridiques, ou d’allongement des procédures) pourrait être réduite.

Ensuite, il est nécessaire d’offrir un statut plus clair et valorisant à ceux qui se lancent dans une recherche active d’emploi, statut qui reconnaîtrait que leur démarche sert un objectif collectif d’adaptation de notre économie. Les retours à l’emploi seraient alors accélérés et de meilleure qualité. Dans le même temps, la suspicion qui pèse sur les demandeurs d’emploi, liée au fait qu’on leur propose surtout une indemnisation, et bien peu d’encadrement, diminuerait sensiblement.

Enfin, il faut des moyens adaptés – plus importants, mais surtout mieux répartis, et mis à la disposition d’acteurs publics moins divers mais très fortement responsabilisés – afin d’aider le demandeur d’emploi à faire un bilan sur sa situation et ses compétences, sur les possibilités offertes par le marché et lui permettre d’atteindre la meilleure situation qu’il puisse raisonnablement attendre.

Au total, dans un pays parfois présenté comme averse au risque, c’est précisément sur un meilleur partage et une meilleure gestion des risques qu’il faut fonder une réforme sociale.


----------

1 . Une démarche similaire conduirait de la même façon à des taux majorés dans de nombreux pays, une partie des publics comptabilisés comme chômeurs en France étant comptabilisée hors de la population active aux États-Unis – en particulier dans la population carcérale –, ou comme handicapés dans certains pays d’Europe du Nord.

2 . Qu’il s’agisse de la macroéconomie, des défauts de nos institutions sociales, et plus généralement de toutes les incohérences qui maintiennent un chômage élevé.

3 . Les éléments présentés ici reprennent largement les conclusions de « Changer de paradigme pour supprimer le chômage », co-écrit avec Jacques Attali (note électronique n° 15, Fondation Jean Jaurès, décembre 2005).

4 . Comme le constatera tout automobiliste ayant eu un accident impliquant une part de malus.

5 . « Mondialisation, une perspective européenne », traduit par la Fondation Jean Jaurès, disponible sur internet : http://fondatn7.alias.domicile.fr/bdd/doc/nweb06.pdf

6 . Une étude du McKinsey Global Institute (« How France can win from offshoring ») montre ainsi que lorsque les États-Unis délocalisent 1 $ de production, le pays gagne 0,14 à 0,17 $. La France en revanche perd environ 0,26 $, essentiellement parce qu’elle n’arrive pas à réemployer rapidement ceux qui ont perdu leur emploi sur des fonctions plus productives…

samedi, août 25, 2007

Les mécanismes d'une crise

L’analyse la plus éclairante de la crise des « subprime » qu’il m’ait été amené de lire est celle de John Kay dans le Financial Times. Pour Kay, cette crise illustre en effet une distorsion entre le rôle que devrait théoriquement occuper le système financier, et son rôle dans la période récente.


En théorie le système financier doit permettre d’allouer au mieux les capitaux et les risques au sein de l’économie mondiale.
Ainsi, en première analyse, le fait que la moitié des actions du CAC soient possédées par des étrangers a des conséquences positives : sans ces capitaux étrangers, les entreprises françaises auraient moitié moins de moyens pour se développer.

De la même façon, le fait que les risques soient mieux répartis permet de financer des projets risqués (startups, développements de grands projets industriels ou d’infrastructure) que personne n’aurait financé s’ils avaient fallu trouver un investisseur unique. En effet, une partie de la stratégie des fonds d’investissements est de « diversifier », c’est à dire de financer plusieurs projets risqués à la fois pour que la rentabilité de ceux qui réussissent compense les pertes de ceux qui échoueront : cette diversification est rentable (ce qui signifie qu’elle génère globalement plus de succès que d’échecs), et elle permet de financer des projets que personne n’aurait financé s’il avait fallu placer « tous ses œufs dans un même panier ».

Cette diversification permet de distribuer les risques au sein de l’économie de façon à ce que ce qu’ils échouent chez ceux qui sont le mieux à même pour les porter. Sans marchés financiers, les sociétés de parapluies auraient du mal à trouver des capitaux. En effet, elles sont très risquées car en cas de beau temps puisqu’il y aura moins de ventes, donc moins de bénéfices. Il en va de même pour les sociétés produisant des crèmes solaires (dont les ventes baissent s’il fait mauvais temps). Avec des marchés financiers, on trouvera facilement des actionnaires pour financer le développement de ces sociétés, car ils achèteront des portefeuilles incluant des sociétés de parapluies, dont le titre baisse s’il fait beau, et des sociétés de crème solaire, dont les actions montent s’il fait beau.

Plus généralement, la finance permet d’améliorer la gestion des risques en les faisant porter par ceux qui peuvent le mieux les contrôler : les actions de sociétés de parapluies seront achetées par ceux qui peuvent le mieux gérer les risques liés à la possession de ces actions (notamment parce qu’ils peuvent neutraliser ce risque, avec des actions de sociétés de crème solaire dans l’exemple ci-dessus), soit ceux qui peuvent tirer le plus d’argent de ces sociétés (parce qu’ils les gèrent mieux ou valorisent mieux leurs produits).

Mais Kay souligne également une autre facette de la finance, dans laquelle les risques vont non pas vers ceux qui peuvent le mieux les gérer, mais vers ceux qui les comprennent le moins. Pour comprendre comment, imaginons le schéma suivant : les ingénieurs financiers d’une banque vont créer une société, que nous nommerons « ABP » (souvent immatriculée dans un paradis fiscal), qui fait des prêts risqués à des emprunteurs risqués (dans le cas des subprime, il s’agit de bénéficiaires de prêts immobiliers à des conditions de risque très élevées). Pour obtenir l’argent qu'elle va prêter, la société ABP se finance de deux façons.

La société ABP va d’abord émettre des actions (qui génèrent un très gros rendement, mais dont le risque est fort car la valeur des actions sera nulle en cas de faillite). Si ces actions génèrent un rendement suffisant, elles peuvent être achetées par des acquéreurs financiers astucieux qui sauront en annuler le risque (en le diversifiant) tout en gardant un bénéfice confortable. Ces actions représenteront en général de « bonnes affaires » - c’est à dire qu’une fois qu’on aura éliminé leur risque (ce qui coûte un peu d’argent), il restera un rendement plus que confortable.

La société ABP va ensuite émettre des produits de dette plus ou moins complexes. Ces produits donnent l’impression d’être des produits de dette classique (une partie d’entre eux seront d’ailleurs certifiés comme « peu risqués » par les agences de notation). Ces produits seront achetés par des gérants de Sicav « dynamiques » (qui visent à obtenir un rendement supérieur à la normal, ce qui suppose de recourir à des produits « anormaux »), ou par des trésoriers d’entreprises ou de certains structures publiques.

Ils les achèteront, bien qu’ils ne connaissent pas grand chose au financement des prêts immobiliers à risque parce qu’ils pensent que ces produits sont de « bonnes affaires » (c’est à dire, qu’il apporteront un rendement supérieur à ceux des produits offrant un risque comparable). Les agences de notations auront indiqué que ces produits sont « peu risqués », et ils auront constatés que leur rendement est cependant supérieur à ce qu’un produit peu risqué « normal » peut fournir. Les vendeurs de ces produits (et compte tenu des salaires proposés, il existe d’excellents vendeurs dans ces métiers) auront produit des analyses rassurantes sur le faible risque et le rendement élevé de ces produits. Autrement dit, et c’est la thèse de Kay, ceux qui auront accepté de porter le risque l’auront fait sans comprendre ce qu’ils achetaient, en se fiant sur le discours de vendeurs de ces produits (« Faites moi confiance, sur le passé ces produits ont toujours été plus rentables que les obligations d’Etat, sans être plus risqués ! ») - d'autant plus crédibles qu'ils représentent des banques ayant pignon sur rue - et de la notations des agences.

Ces produits sont-ils vraiment de bonnes affaires ? Pour comparer les produits financiers de rendement et de risques différents, il faut estimer leur « rendement corrigé du risque* ». Or personne ne peut connaître réellement le risque de prêter à des gens auxquels personne n’a jamais voulu prêter, sans avoir connaissance du rendement et le risque de défaut de ces produits sur très longue période - deux informations qui n'existent pas actuellement. Certes, on trouvera comme toujours, de nombreux vendeurs ou experts plus ou moins intéressés pour dire que « ces produits ont toujours été de bonne affaires » et expliquer, par des raisonnements plus ou moins convaincants, pourquoi cela devrait rester durablement vrai. Certes il faut compter avec le pouvoir de séduction des généreux cocktails et des invitations à des colloques gastronomiques ou exotiques que certaines banques auront organiser pour récompenser les acheteurs et les prescripteurs, ou pour convaincre les futurs acquéreurs.

Il n’en reste pas moins un fait simple : si les prêts immobiliers "subprime" sont trop mauvais pour être financés par des acteurs « classiques » (qui sont pourtant bien placés pour comprendre et analyser ces risques), ceux qui les financent ont toutes les chances de faire une mauvaise affaire. Et si, parmi ceux qui financent ces prêts et en portent le risque, ceux qui achètent les actions font une bonne affaire, alors ceux qui achètent la dette et les produits complexes font nécessairement une très mauvaise affaire. Comme souvent, c'est celui qui achéte un produit risqué sans vraiment comprendre le risque qui est le "pigeon" de l'affaire !

John Kay rappelle que ce mécanisme a été à l’origine des difficultés des assureurs anglais. Elle fut également présente dans la crise des junk bonds. La faillite d’Enron ou de certaines comètes boursières de l’internet repose également sur des mécanismes similaires. Doit-elle conduire à rejeter la finance au rang des jeux de casino ? Evidemment non. Mais le système financier ne peut tenir un rôle positif tel que cité en début d’article qu’avec des agents qui comprennent ce qu’ils achètent, et disposent d'informations dignes de confiance – à l'inverse de ce qu'on fourni les comptables d’Enron, les analystes financiers de la bulle internet ou les agences de notation de produits complexes au risque sous-évalué.

La morale à tirer de cette affaire se résume en fait à deux principes simples d’investissement :

Premier principe : n’achète que ce que tu comprends.

Deuxième principe : si on te propose un produit complexe mais rentable, cherche qui est le « pigeon ». Si tu ne le trouve pas, ce sera probablement toi !


* : Pour être plus précis, il s'agit du rendement corrigé du risques et de la liquidité.

samedi, juin 09, 2007

L'adhésion politique : d’appareil, d’idéologie, de sympathie ou d’objectifs?

Derrière les questions de choix publics se pose souvent la question de l'appartenance à une sensibilité - de gauche ou de droite. Etre de gauche ou de droite ? 40 % des français avouent n'être sympathisant ni de l'une ni l'autre. Pour les autres il faut distingue quatre types d'adhésion :

- l'adhésion à un appareil, qui regroupe ceux qui disposent d’un poste dans l’une des organisations « officielles », c'est à dire un parti politique (UMP,PS,MoDem,PC, LCR, LO,…). On peut compter environ 500.000 mandats politiques, donc sans doutes un peu moins d'élus. Statistiquement, c'est peu : un peu plus de 1 % des français inscrits sur les listes électorales - même si cette catégorie est fortement surreprésentée dans les médias

- l'adhésion à une idéologie, c'est à dire à certaines idées sur la société – qui peuvent aller, selon le bord politique, de l’idée qu’une certaine redistribution est moralement nécessaire, à l'idée que les revenus ne dépendent que du mérite ou que seule la menace de sanctions peut assurer l'ordre social, jusqu’à l’idée selon laquelle le capital peut être taxé sans effet en retour sur l’emploi et l’activité. Il est difficile d'en estimer le nombre, même s'il est probable que les "purs" qui adhérent à 100 % d'une idéologie de droite ou de gauche sont sans doutes peu nombreux (disons, moins de 10 %) ;

- l'adhésion à des personnes », c'est à dire l'attirance pour une personne qui représente l'une ou l'autre des sensibilités. Il y a, tous partis confondu, des personnes de très grande qualité parmi les élus nationaux ou locaux,, comme des personnes de moins grande envergure. Connaitre un bon élu, conduit généralement à adhérer à leur bord politique. Cette adhésion n'est pas forcément exclusive : 20 à 30 % des sympathisans de droite souhaitent ainsi voir des personnalités telles Dominique Strauss-Kahn, Bertrand Delannoe ou Segolène Royal jouer un role important à l'avenir. 50 % à gauche souhaitent la même chose pour Jean-Louis Borloo. D'autres personnes moins connues, telles qu'Eric Woerth, suscitent des commentaires très positifs du camp opposé sur leur action ministérielle ;

- l'adhésion à des objectifs, par exemple en matière d’harmonie sociale (que les jeunes de banlieues puissent vivre avec les même chances que les jeunes bien nés de Neuilly), de liberté civique (PACS,…) ou de correction des aberrations du marché (2). Ou la volonté de voir l’Etat projeter une vision de la société à long terme et coordonner sa mise en œuvre. Ou le souhait de voir la dépense publique être plus (nettement plus) efficace (1), afin d'améliorer notre compétitivité et notre qualité de vie. Cette adhésion est totalement pragmatique : elle se porte moins sur un parti, que sur la personne ou l'équipe qui apparait à un instant donné la mieux à même de résoudre un problème (le chômage, le déficit, le sous-financement des retraites,...). De la même façon que chacun trouve sain qu'une mission difficile soit confiée à la personne la plus compétente pour cette mission, plutôt qu'à celle qui la réclame depuis le plus longtemps ou le plus fort ;

Les querelles de personne, qui constituent une part importante des débats, ne dépassent pas les deux premières définitions. D'ailleurs, la plupart des français les entendent sans les écouter. La dernière conception, la "politique du résultat" revendiquée à droite comme à gauche, prend une part croissante, au point de voir les français adhérer fortement à un gouvernement "d'ouverture". Pour prendre une image osée, pour la dernière définition de la sympathie politique, "l'ouverture" ne pose pas plus de problème que ne le poserait pour la définition de ce qu'est une boisson le fait de voir un cadre de Pepsi travailler avec un cadre de Coca-Cola pour améliorer la qualité des canettes que tous deux utilisent.

Car la France n'a pas besoin de débats stériles, elle a besoin de rattraper le temps perdu. Pour celà, elle a besoin de compétences - d'où qu'elles viennent. A charge pour les ministres "d'ouverture", s’il s’avèrait qu'ils n'avaient pas les moyens de leur mission, de dénoncer rapidement et publiquement la supercherie.


(1) Ceci étant dit sans pour autant incriminer les fonctionnaires, et surtout pas les agents de base : la responsabilité repose à mon avis entièrement sur les décideurs, les corporations administratives (notamment de la haute fonction publique), et le mode de management trop "politique" des responsables trop préoccupés par l’image immédiate et les annonces, et pas assez des résultats durables.

(2) Par exemple, il existe des éléments convaincants qui tendent à montrer que le niveau de revenu et plus généralement de qualité de vie de chacun est d’abord lié d’abord à la chance, et ensuite seulement au mérite et à l’effort, ce qui justifie de nombreuses corrections.

dimanche, avril 22, 2007

Le progrès économique passe trois fois par le social

La préférence française pour les machines


Les syndicats et une partie de la classe politique ont dénoncé les caisses automatiques, mise en place par plusieurs supermarchés. En permettant aux clients d’enregistrer eux-mêmes leurs achats, ces caisses menaceraient 80.000 à 200.000 emplois de caissières, selon les organisations syndicales. De la même façon, les cinémas UGC permettent à leur client d’acheter leurs billets directement sur des automates. La SNCF a emprunté la même voie en orientant ses clients vers les automates (essayez d’obtenir un billet en moins de 20 minutes aux heures de pointes en passant par le guichet !). Cette évolution traduit plusieurs tendances :

- d’abord, l’évolution des métiers : il n’y a plus de poinconneurs des lilas, remplacés par des automates dans tous les pays développés. De la même façon, les métiers les plus mécaniques sont appelés à être remplacés ;

- ensuite, le coût relatif de la main d’œuvre peu qualifiée dans les services, qui conduit les entreprises française à remplacer une partie de cette main d’œuvre par des investissements (sur ce sujet, voir l’étude de Thomas Piketty publiée dans Economie et Statistique n°318) ;

- plus généralement, une tendance française à traiter les salariés comme des machines, et si possible à remplacer les seconds par les premiers (cf les développements sur ce thème dans « Pour une sécurisation des parcours professionnels »).

Les deux dernières tendances relèvent de facteurs purement nationaux, et appellent donc à des solutions locales :
- le coût relatif de la main d’œuvre pose deux questions. D’abord, celui de l’assiette des cotisations sociales : une grande partie de nos prestations sociales sont relativement bon marché (les dépenses de santé français en % du PIB sont très inférieures à celles des USA, pour une efficacité bien meilleure) mais elles pèsent sur une mauvaise assiette – les salaires. La solution est simple : faire peser le financement de la santé sur d’autres contributions (le budget général, par exemple, ce qui revient à faire peser ce financement sur la première de ses recettes, à savoir la TVA). Ensuite, l’écart relativement modeste entre les salaires les plus bas et les salaires les plus hauts (donc le SMIC est la principale explication) : la faiblesse de cette écart n’est pas un problème en soi (plusieurs études tendent au contraire à montrer qu’une société trop inégalitaire est moins heureuse), mais les outils utilisés pour réduire ces écarts tendent à peser sur l’emploi peu qualifié. Il existe deux solutions : faire employer massivement les personnes en bas de l’échelle des salaires par l’Etat (cas Danois, via les emplois de service à la personne et d’accueil des enfants), ou subventionner les emplois à bas salaire (qui est l’une des raisons d’être de la prime pour l’emploi) – et sans doute un mélange des deux si l’on veut éviter de concentrer les personnels les moins qualifiés dans le secteur public et leur permettre, via la promotion interne, d’évoluer dans le secteur privé (il existe des exemples de caissière passées responsables d’équipes de caissières puis chef de rayon, puis responsables de magasin : s’il n’y avait plus de caissière, le critère du diplôme empêcherait ces personnes d’arriver à de tels postes) ;

- la tendance française à un management « froid » - plus axé sur la technique que sur l’entraînement et la motivation des hommes et des femmes – renvoie à des causes multiples, et profondément ancrées dans notre société. Un peu comme si le recrutement devait constituer la dernière solution à chaque problème, malgré les discours lancinants sur le thème « la véritable richesse de cette entreprises, ce sont les hommes ». Cette tendance culturelle est évidemment liée aux précédentes : si l’embauche de salariés est complexe et coûte cher, il est normal que se créent des habitudes qui tiennent compte de cet état des lieux, même une fois qu’il cesse d’être vrai. Ainsi les entreprises surestiment-elles encore massivement le niveau des charges au niveau du SMIC (de l’ordre de 20 % après allégements) : malgré un niveau de charges désormais modeste au niveau du SMIC du fait des exonérations de cotisations sociales, les entreprises raisonnent encore comme si les charges étaient élevées !

Faire plus de social pour être plus compétitifs : le triple progrès.

La première cause de mécanisation tient à un fait simple : on gagne généralement à remplacer les emplois les plus mécaniques par des machines. Mais si l’on remplace les caissières par des machines, avec des caissières qui restent au chômage, c’est une erreur économique qui coûte cher à la société qui accepte cette situation. Si, au contraire, elles peuvent trouver un emploi au moins aussi attrayant pour elles (condition remplie par beaucoup d’emplois) alors c’est un triple progrès économique – un progrès pour les consommateurs qui payeront moins cher (et payeront moins de cotisations visant à financer l’indemnisation du chômage), un progrès pour l’entreprise qui améliorera ses coûts, et un progrès pour le salarié qui quitte un emploi mécanique, précisément parce que cet emploi mécanique est occupé par une machine. Au contraire la France de 2007 :
- plaint les chômeurs, mais ne fait rien pour les aider à trouver un emploi qui leur correspond ;
- glorifie les entreprises mais ne fait rien que les progrès de gestion ne soient pas lestés pare de la casse sociale ;
- promet des gains de pouvoir d’achat aux français, en omettant de résoudre la contradiction entre consommateurs (qui gagnent aux gains de productivité) et salariés (qui y perdent souvent).

Pour bénéficier du triple progrès économique, nous devons pouvoir fournir à ceux et celles qui occupaient un emploi rendu sans objet des emplois plus attrayants. La générosité de notre modèle doit rester forte, mais elle ne peut plus se mesurer au niveau de stabilité des postes et des statuts. Notre modèle social doit au contraire changer de paradigme et aider enfin la recherche d’emploi – les innovateurs et les créateurs feront le reste.

samedi, avril 14, 2007

La recherche, l’innovation, la compétitivité : mobilisons notre intelligence collective !

Où en est la France ?

En matière de recherche, la France est encore un grand pays, mais qui perd du terrain. Grand pays parce que nous restons à la 5e place en termes de dépenses (environ 30 milliards d’euros annuels), derrière les USA, la Chine, le Japon et l’Allemagne. Nous publions environ 5 % des articles scientifiques du monde (pour 0,9 % de la population mondiale). Nous consacrons 1 % du budget à la recherche (dont 1/5e à la défense) – l’effort global de recherche (privé et public) dépassant 2,1 % du Pib (ce qui est inférieur d’environ 20 % au niveau des pays comparables). A l’exception des sciences de la vie, la recherche française est plutôt plus forte sur les domaines présentant des applications commerciales par rapport aux pays comparables (cf tableau ci-après).

Répartition des articles publiés dans les principales revues par grand domaine




Mais nous perdons du terrain, car nous sommes peu présents dans des domaines aussi porteurs que les nouvelles technologies ou les biotechnologies. Ce retard dépasse largement le secteur de la recherche - ainsi l’investissement national en technologies de l’information est en France deux fois inférieur à celui des USA. Pour prendre un exemple réducteur mais aisément compréhensible, un ménage sur deux possède un ordinateur (2/3 en Allemagne, plus de ¾ au Japon). En nombre d’articles scientifiques par million d’habitants, notre performance est inférieure de 10 % à la moyenne européenne, de 25 % aux USA et de moitié à celle de pays tels qu’Israël, la Suisse ou la Suède, qui se situent aux premières places mondiales. Selon l’OCDE, la France est également moins présente que le Royaume-Uni ou Allemagne sur la coopération internationale en matière de brevets. Enfin la France dispose d’un système reconnu dans la recherche fondamentale (qui est largement partagée avec tous les chercheurs mondiaux car les publications sont loin des applications), moins performant dans la recherche appliquée (qui n’est pas plus noble ou plus « utile » que la précédente, mais qui se situe en revanche plus près des activités rentables, et donc génère plus facilement des revenus).

Si l’on regarde maintenant la façon dont notre recherche est organisée, on constate plusieurs « spécificités françaises » :
- une part plus importante du public dans la dépense nationale de R&D, qui passe par un système complexe et pas nécessairement cohérent alliant universités, organismes de recherche (CNRS, INSERM, INRA, CEA, INRIA…) et grandes écoles (la plupart des laboratoires étant financés par un subtil dosage de ces différentes saveurs) ;
- un système d’enseignement supérieur atypique, dans lequel 2 étudiants sur 5 relèvent d’établissements (classes préparatoires, grandes écoles, IUT) dont une des particularités est de ne pas lier automatiquement enseignement et recherche (comme c’est le cas à l’université, en France et ailleurs), et d’être plus adaptée à un modèle de grands objets industriels qu’à un modèle d’innovation permanente (j’y reviendrais) ;
- le système éducatif « ponctionne » en faveur de l’administration une partie plus importante que dans la plupart des pays développés des jeunes diplômés (ENA, Polytechnique) ;
- le statut des chercheurs est peu incitatif : les meilleurs ont des conditions de travail et des salaires plus élevés à l’étranger (USA, Royaume-Uni), notamment dans les domaines qui présentent des applications rentables. Un exemple pour un enseignant chercheur d’une trentaine d’années en finance ou en économie : il gagne facilement 150.000 euros annuels dans une bonne université anglosaxone (c’est évidemment moins dans des spécialisations plus académiques, mais l’écart subsiste autant dans les salaires que les moyens dont dispose le chercheur). A contrario, un jeune chercheur en France gagne 1.500 euros par mois. Cette caractéristique marque moins un problème en France (beaucoup de pays payent peu leurs chercheurs, même les plus productifs), qu’un décalage entre notre système et un système anglosaxon avec lequel il est néanmoins en concurrence. Dans l’absolu, les deux systèmes sont possibles, mais si les deux coexistent, l’un risque de se vider au profit de l’autre ;
- la réforme des universités française attend encore son heure, alors que beaucoup de réformes ont été entreprises à l’étranger. Cette réforme peut se limiter à quelques mesures simples (en termes de moyens ou d’autonomie réelle – interne comme externe - des présidents d’universités). Elle pourrait aussi être plus ambitieuse et aller de pair avec une réforme des grandes écoles et des organismes de recherche ;
- Le système français de recherche est très marqué par la centralisation (40 à 50 % des chercheurs français sont en Ile de France). Alors que la presse évoque parfois l’exode des cerveaux français vers la Grande Bretagne, cet « exode » n’est rien à coté de l’exode des régions vers l’Ile de France ! Ce déséquilibre conduit nécessairement à une sous-utilisation de notre « intelligence collective » (cf infra) ;
- la France a échoué dans de la « stratégie de Lisbonne » (« : faire de l'UE l'économie la plus performante au monde »), proclamée en 2000 par les dirigeants européens. La coopération en matière de recherche manque de dynamique, comme l’illustre le projet « Quaero » de moteur de recherche sur internet européen (annoncé comme franco-allemand, les allemand s’en étant désengages peu de temps après) ;
- nous assistons à un développement inéluctable de pays tels que la chine et de l’inde (ainsi que certains pays de l’ex bloc de l’Est tels que l’Estonie par exemple), qui ont une tradition scientifique forte et ancienne. Le lecteur intéressé par cette question pourra utilement lire « Mondialisation : une perspective européenne » (de John Sutton, traduit par la Fondation Jean Jaurès), qui illustre très clairement ce phénomène. Ce développement est salutaire pour ces deux pays mais qui aura nécessairement pour conséquence – toutes choses égales par ailleurs – un affaiblissement de la position relative de la France. Trois faits illustrent à quel point ce développement est avancé : la Chine est désormais le deuxième investisseur mondial en matière de R&D. L’activité de PC d’IBM (le creuset « historique » de l’ordinateur individuel très grand public) ont été rachetés par une entreprise chinoise (Lenovo). Les développements en matière de développements informatiques se situe désormais en Inde ;

La recherche pour quoi faire ?

On peut noter au moins deux raisons de développer la recherche :
- d’abord par intérêt pour les sciences et par désir de les faire progresser, ou pour faire progresser un objectif (lutte contre le cancer, les maladies orphelines, ou envoyer un homme sur la lune) ;
- ensuite parce que c’est un investissement collectivement rentable (plus de moyens à la recherche aujourd’hui, c’est plus de croissance et donc plus de richesse demain) et un facteur de compétitivité (quand on veut pouvoir payer plus cher ses salariés, il faut produire autre chose, ou le faire avec des méthodes plus performantes – et pour cela il faut chercher) – avec la difficulté que l’investissement (notamment en recherche fondamentale) est généralement porté par la collectivité, alors que les bénéfices sont généralement captés par les entreprises qui développent les applications.

Or la première raison (progrès scientifique) s’efface trop souvent dans les débats aux détriments de la dernière– on veut faire de la recherche pour des objectifs macroéconomiques, mais on oublie d’en rappeler les bénéfices tangibles. C’est évidemment regrettable, à une époque où la science n’est plus seulement vue comme une facteur d’émancipation (ce qu’elle était il y a un siècle), mais aussi comme un facteur d’inquiétude (OGM, bioéthique, pollution liée au progrès technique et donc indirectement aux avancées scientifique).

Par ailleurs, si l’on veut de la compétitivité ou de la croissance, ce n’est pas forcément de recherche dont on a besoin, mais plutôt d’innovation. Or on peut faire de l’innovation sans recherche (en utilisant la recherche des autres, par exemple), on peut faire de la recherche sans innover (c’est le cas d’une partie de la recherche fondamentale ou en sciences humaines, dont les applications peuvent ne pas être immédiates, ou ne pas exister du tout). On peut innover d’une façon favorable à la croissance économique dans des domaines dans lequel il n’existe pas de recherche formalisée (l’accueil et le service des usagers du service public ou des demandeurs d’emploi). Enfin la compétitivité est liée à la façon de transformer une innovation en revenus : cette transformation n’est ni automatique, ni juste, ni morale – ainsi les avancées induites par l’invention du laser ont rapporté davantage à Johnny Halliday (par les revenus supplémentaires liés à la vente de CD musicaux) qu’à Albert Einstein (dont les travaux ont pourtant été déterminants). Faire de la recherche pour la compétitivité oblige donc à naviguer entre deux mondes – schématiquement le monde « altruiste » de la recherche scientifique (dont l’objectif est de partager le plus largement les publications et les résultats) et le monde « égoïste » de la recherche d’applications rentables (où il s’agit au contraire de partager le moins possible les revenus).

Il faut également noter qu’en matière de recherche, on trouve parfois les solutions là où on ne les cherche pas. C’est notamment pour cette raison qu’il faut se garder de trop opposer recherche en sciences dures et recherche en sciences humaines (j’y reviendrais par un exemple dans la conclusion de cet article) – ce qui n’empêche évidemment pas de fixer des limites au nombre et au type des projets qui peuvent être financés par la collectivité.

Enfin, on se fait souvent une idée très administrative et « taylorienne » de la recherche – comme si l’innovation pouvait naître de chercheurs recrutés sur leurs performances scolaires, suivis et notés aux résultats. Ce modèle est relativement adapté aux « innovations incrémentales » (faire comme avant, mais un peu mieux ou un peu différent – par exemple, faire un nouveau modèle de rasoir avec une lame de plus ou, plus sérieusement, envoyer un homme sur la lune après l’avoir envoyé faire un tour dans l’espace) mais totalement inadapté aux innovations « radicales » (création d’un produit entièrement nouveau). Les innovations radicales reposent sur un modèle très différent, dans lequel on ne sait pas faire grand-chose de plus que mettre des personnes créatives au même endroit, leur laisser une grande liberté – et se laisser la possibilité de leur voir trouver rien du tout, ou quelque chose de très différent de ce qui était attendu. Notons pour terminer que le développement du web fait de plus en plus apparaître, en dehors des chercheurs « labellisés » des contributions parfois de grande valeur (notamment dans le domaine des sciences sociales).

L’innovation en quelques exemples

Savez-vous comment est né le World Wide Web ? Pas des laboratoires de recherche militaire américains (ils ont plutôt développé le précurseur du réseau Internet, qui permet à un ensemble d’ordinateurs de se connecter pour créer un réseau). Pas des start-ups californiennes (elles ont essentiellement développé des applications une fois le web lancé). Pas des géants de l'informatique (même si Xerox avait eu des initiatives intéressantes, leur apport s'est essentiellement concentré sur le développement d’ordinateurs personnels bon marché). Pas des plans d’investissements publics centrés sur les réseaux (ils se sont essentiellement concentrés sur les réseaux universitaires et militaires).
Non, le web est né d’une initiative d'un contractuel d’un laboratoire de recherche européen (le Cern), qu'un contrôle de gestion rigoureux aurait freinée, si ce n'est empêchée : dans un laboratoire censé consacré ses moyens à la recherche nucléaire, Tim Berners-Lee réussit en effet à faire financer un projet consacré à un nouveau langage hypertexte. Pour schématiser à l’extrême : l'une des évolutions les plus importantes pour la diffusion de la connaissance, l'innovation ou le travail en groupe est née du fait que des chercheurs ont pu, sur leur temps de travail, gaspiller de l'argent (par rapport aux missions figurant sur leur contrat de travail ou dans les objectifs de l’organisme que les hébergeaient) !
Beaucoup des grandes découvertes ont des origines comparables. Ainsi la théorie de la relativité est-elle due à Albert Einstein, obscur employé de l’office des brevets de Berne, refusé par toutes les universités auxquelles il avait postulé. La découverte de la pénicilline est liée à une erreur de laboratoire, une expérience sur le développement de moisissures ayant contaminé par inadvertance une expérience sur des souches bactériennes. La radioactivité a également été découverte par hasard. Et les exemples ne sont pas limités à la recherche théorique ou fondamentale : l'invention du Post-It relève le même logique. De la même façon l’un des centres de recherche les plus prolifiques de l'histoire récente, Xerox Parc, responsable entre autre de l'imprimante laser, des systèmes d'interface avec souris, fenêtres et menus, du langage orienté objet voire du langage html a-t-il également été un échec financier pour son financeur – les applications rentable de ces recherches ayant été réalisées par des entreprises telles qu’HP, Apple ou Microsoft…
La société 3M, reconnue pour sa capacité d'innovation, a poussé ce système jusqu'au bout en définissant sa politique d'innovation comme suit : mettre des moyens importants, favoriser l'échange et le maillage entre des équipes différentes, laisser les chercheurs consacrer 15 % de leur temps à leurs recherches personnelles, et favoriser et valoriser les carrières d'experts plutôt que de vouloir transformer d'excellents chercheurs en mauvais gestionnaires.
Même dans les entreprises qui pratiquent la recherche à une échelle « industrielle »– les laboratoires pharmaceutiques – l’activité de recherche tient moins du travail à la chaîne que du lancer de fléchettes en aveugle – lancer 100 flèches au hasard pour espère en avoir au moins une dans la cible. Ainsi les laboratoires testent-ils chaque année des centaines de molécules pour ne retenir qu’un au deux produits au bout des tests de mise sur le marché, qui visent à identifier tous les effets d’un produit (et à vérifier qu’il ne présente pas de danger pour l’organisme). Ainsi ont-ils souvent des surprises – ce fut le cas avec le viagra, qui était à l’origine un médicament conçu pour traiter les problèmes de circulations, mais dont les tests in vivo firent apparaître une autre caractéristique qui a trouvé d’autres usages.

Que peut faire l’Etat pour développer l’innovation ?

Bien sûr, une nation ne se gère pas comme une entreprise : la politique de recherche de la France n’a pas pour seul objectif de faire vendre des produits. Elle doit permettre de former des étudiants (formation par la recherche, même pour des personnes qui ne travailleront jamais dans des laboratoires), de former des chercheurs, de faire avancer la recherche publique, tout en stimulant la recherche privée et en libérant l'innovation. Je donnerai cependant quelques pistes pour développer et accélérer l’innovation en France :
1 – Nous avons un système éducatif trop souvent axé sur « l’apprentissage d’un programme » et peu axé sur la collaboration, la créativité, l’initiative ou le travail en groupe. Or la recherche et/ou l’innovation repose souvent sur un mélange des trois. Il faut donc faire évoluer le système éducatif, pour enseigner dès le plus jeune âge que « tout n’est pas dans le programme » et qu’il peut y avoir des solutions qui n’existent pas encore dans les livres.
2 - Ensuite, en matière d’enseignement supérieur et de recherche, la France alloue des moyens par étudiant qui placent notre pays en queue de peloton (une analyse plus détaillée montrant que si la dépense annuelle par étudiant est plus faible que la moyenne, nous avons une dépenses sur l’ensemble des études supérieur moins défavorable, mais étalée sur un plus grand nombre d’année). Il faut une réforme conjointe de la politique de recherche (qui doit donner des axes cohérents et assumés, au niveau européen – tout en laissant évidemment une place à l’imprévu inhérent à tout processus d’innovation), des universités (qui doivent s’inscrire dans cette politique de recherche, en ayant les moyens et l’autonomie pour le faire), des grandes écoles (dont la formation doit inclure davantage de recherche, éventuellement par le biais de laboratoires communs avec des universités), du système d’orientation et de formation continue (car il n’y aurait pas de sens à envisager une réforme du système de formation initiale découplée du système de formation continue) ;
3 - L’initiative des pôles de compétitivité français est sympathique, mais bien peu d’entre eux ont une ampleur mondiale. Nos universités et grandes écoles sont petites, reposent sur un modèle atypique et souvent invisibles à l’échelle mondiale. Il faut concentrer les ressources au niveau européen – ce qui veut dire accepter que certains pôles ne soient pas français (par exemple les économies d’énergies, dans lesquelles les allemands ont plusieurs longueurs d’avance), en contrepartie de quoi les autres européens accepteraient que les moyens de recherche sur d’autres domaines soient concentrés en France au niveau européen (par exemple, l’optique à Orsay). Evidemment, il n’y a aucune raison que ces pôles soient concentrés à Paris…
4 - Notre système différencie beaucoup en fonction du statut (écoles d’ingénieurs mieux dotées que universités) plus qu’en fonction des résultats. C’est un véritable risque de voir les meilleures équipes de recherche quitter la France. Même s’il est difficile de juger la recherche, il faut différencier les moyens des équipes de recherche en fonction des résultats (faute de quoi il y a un risque fort de voir les meilleures équipes quitter la France).
5 - La recherche en entreprise est concentrée sur quelques grands groupes (EDF par exemple) et correspond à un modèle de « grands programmes ». C’est un modèle d’innovation, qui correspond aux innovations « incrémentales » poussées par une volonté (faire un peu mieux, envoyer un homme sur la lune après l’avoir envoyé autour de la terre,…) – qui pose également question lorsque d’ancien établissements publics deviennent des entreprises cotées dont certains actionnaires ont la possibilité juridique de les forcer à stopper toute recherche qui ne serait pas assez rentable pour eux (en invoquant l’abus de bien social ou l’abus de majorité). A coté de ce modèle des « grands programmes de grands groupes », il y a un autre modèle, qui passe davantage par la « destruction créatrice » (création d’entreprise), qui correspond davantage aux « innovations radicales » tirées par le marché (créer une technique ou un produit radicalement différents). Pour nous rapprocher de ce modèle, il faut rééquilibrer nos outils d’aide à l’innovation pour donner plus de place à l’innovation radicale (aide à la création d’entreprise, financement de « l’amorçage », appui aux personnes qui prennent des risques de carrière pour se lancer dans la création…).
6 – L’activité de transfert, consistant à parcourir les productions de la recherche pour développer les applications commerciales possibles devrait être renforcée. Il s’agit d’une tâche complexe, pour laquelle il n’existe pas de remède miraculeux si ce n’est de faciliter les transfert de personnes (mobilité temporaire ou définitive des chercheurs vers les entreprises, voir de cadres d’entreprises vers la recherche), et des idées (les pôles de compétitivité européens devraient mécaniquement faciliter ce rapprochement).
Enfin l’innovation est aussi une affaire de culture. C’est sans doute l’élément le plus complexe, le moins souvent abordé mais peut-être le plus important. Pour innover, il faut :

- que les créateurs français soient valorisés – or nous sommes à une époque où l’on valorise plus les métiers de la finance (dont une partie du rôle, au moins au niveau international, est de réallouer l’épargne mondiale des pays développés vers les pays en voie de développement, c'est-à-dire de réduire les moyens consacrés à l’innovation et à la croissance dans les pays de l’ouest) que les métiers de la création, surtout quant il s’agit de créer en France. Pour les grands groupes, la priorité actuelle est de croître à l’international – c’est là où leur intérêt économique les pousser à investir leurs ressources humaines et financières. Un modèle d’innovation en France passe donc pas une logique différente, qui repose nécessairement plus sur les acteurs plus centrés sur l’échelle locale (PME notamment) ;

- que les créateurs disposent d’un climat suffisamment clément pour pouvoir prendre des risques. Il ne s’agit pas que l’Etat prenne les risques à leur place – chacun doit rester dans son rôle. Mais notre système social donne une forte prime aux statuts. Quelques exemples : un fonctionnaire est valorisé par son « corps de fonctionnaire » (ie, l’étiquette dont il a hérité à 20 ans à l’issue d’examens sans lien direct avec les fonctions qu’il aura à assumer ensuite) plus que par ce qu’il a réalisé, un salarié qui démissionne pour créer son entreprise a moins de couverture sociale qu’un chômeur et n’a plus le droit aux allocations, le fait d’avoir tenté et échoué à la création d’entreprise reste une tâche sur un cv ;

- que l’innovation bénéfice à tous – c'est-à-dire que notre système social soit capable d’accompagner les « perdants de l’innovation ». C’est tout l’enjeu de ce que l’on appelle la « sécurité sociale professionnelle » dont je vous reparlerais volontiers. Faute d’un tel système, la France se condamne elle-même à l’immobilisme. C’est un point fondamental, qui est brillamment développé par John Sutton dans « Mondialisation, une perspective européenne ».

Je terminerai par une note plus philosophique. Derrière la question de l’innovation, il y a certes la question de la recherche (c'est-à-dire de la « professionnalisation de l’innovation ») mais aussi, et surtout, celle de « l’intelligence collective » – c'est-à-dire la façon dont un chercheur, un chef d’entreprise, un vendeur de génie peuvent travailler ensemble. C’est sans doute pour cela que les systèmes centralisés ou totalitaires sont peu innovants, même, comme c’était le cas dans le bloc de l’Est, quand ils disposent de chercheurs remarquables. Plusieurs études ont montré un lien entre le niveau de confiance qui unit les concitoyens d’un pays, et la capacité de se pays à croître et à innover. C’est ce que confirme la première place de pays à forte cohésion, tels que la Suède ou Israël, dans les classements mondiaux.

Il est difficile de ne pas lier cette réflexion à un constat : la France est l’un des pays développés où le niveau de confiance entre concitoyens est le plus faible (c’est ce que montre « l’enquête mondiale sur les valeurs », qui mesure notamment ce genre de choses). La France est un pays miné pour l’inquiétude et l’angoisse, qu’il s’agisse de celle des cadres, des salariés menacés, des chômeurs ou des exclus. Il est difficile d’innover ou d’investir dans un projet d’innovation – forcément long et risqué – dans un tel climat d’angoisse et de défiance. C’est là la première priorité pour la France – et elle se situe entièrement dans le champ politique.