La plupart des pays du G20 ont présenté des plans de relance, ou s'apprêtent à le faire.
Pourquoi faire un plan de relance ?
Actuellement l'activité se réduit, c'est à dire que parce le système financier a ralenti, mais sans doute également parce que certains anticipent un ralentissement, les entreprises investissent moins, les ménages consomment moins et les exportateurs exportent moins vers les entreprises et les consommateurs étrangers. La conséquence est une réduction d'activité, avec ses conséquences en termes de hausse du chômage. Autrement dit, des personnes qui auraient pu produire (et disposer d'un revenu en contrepartie) risquent de se trouver sans activité. C'est une perte sèche, car le temps perdu ne se rattrape pas. Or, du point de vue du pays, il y a des tas de choses utiles à faire que pourraient réaliser les personnes concernées, directement ou indirectement (ie, elles travaillent pour satisfaire les besoins de personnes qui réalisent un projet utile à la collectivité).
C'est précisément l'objet du plan de relance : l'activité privée faiblissant, un plan de relance permet à l'activité publique de prendre temporairement le relais, et ceci afin de limiter les effets du ralentissement économique. En général, ces plans de relance vont augmenter la dette publique (ou ralentir le rythme de sa réduction). Cette dette, il faudra la rembourser un jour (où en payer éternellement les intérêts, ce qui revient au même) : tout l'enjeu est donc de faire un plan conçu de telle façon que les citoyens présents soient gagnants (ce qui est la partie la plus simple, car ils vont bénéficier des revenus liés aux décisions du plan) sans que les citoyens futurs soient perdants (ils vont payer la dette, et doivent donc bénéficier des éventuels bénéfices du plan de relance).
Comment faire un bon plan de relance ?
On attend donc deux choses d'un plan de relance :
- qu'il relance l'activité, c'est à dire que l'argent public investi génère le plus d'activité possible sur le sol national
- qu'il ne spolie pas les générations futures, c'est à dire qu'elles aient un bilan positif, entre la dette supplémentaire qu'elles devront acquitter et les éventuels bénéfices qu'elles retireront du plan.
Sur le premier point, il faut privilégier des dépenses d'effet rapide : lancer ou avancer des projets qui peuvent donner lier à des travaux immédiats, ou donner du revenu à des personnes susceptibles de le consommer immédiatement.
On notera cependant que, compte tenu du taux d'importation que génère un euro de revenu distribué aux ménages, les dépenses de consommation risquent d'être moins efficaces, surtout si elles ne sont pas ciblées. Par exemple, si le plan de relance consiste en un chèque distribué aux ménages, certains vont acheter une télévision à écran plat - qui ne produit qu'une fraction d'activité en France. L'effet sera ainsi dilué, et, plus généralement, il en ira de même pour d'autres dépenses de consommation. Au-delà de l'analyse macroéconomique théorique, les mesures larges de ce type doivent donc poser la question suivante : est-il dans le rôle de l'Etat de financer l'équipement en matériel hi-fi dont nos enfants payeront le prix à crédit, ou doit-il centrer son action sur l'aide à ceux qui vont être le plus touchés par le ralentissement économique ?
Certes, la tentation est évidemment grande de réaliser des "grands plans de consommation" (certains proposent de distribuer des chéques payés par l'Etat...), mais cette idée n'a pas grand sens économique, sans parler de son sens politique (un humoriste anglais ironisait sur la vision de la politique consistant à "acheter les voix des électeurs avec l'argent de leurs propres impôts"). De plus, elle se heurterait, comme tous les plans qui ont trop reposé sur ce levier, au fait que la France est un pays ouvert (ce qui dilue toute relance par la consommation). Notons enfin que les dépenses d'investissement vont se transformer fortement en revenus dans les secteurs concernés, et donc servir également le pouvoir d'achat...
Sur le second point, le bilan pour les générations futures du plan de relance va dépendre essentiellement de deux facteurs. Premier facteur, le fait que le plan de relance évite des "irréversibilités" (faillites, pertes de qualification,...) dont le coût aurait, s'il n'avait pas été évité, pesé sur les générations futures. Second facteur, le fait que les dépenses du plan produisent des bénéfices ou évitent des dépenses aux générations futures : c'est notamment le cas s'il s'agit d'accélération ou d'anticipation d'investissements utiles pour l'avenir.
Faut-il vraiment, comme l'ont plaidé certains, avoir des "dépenses réellement nouvelles" ? Aller dans ce sens revient à souhaiter que l'on aille chercher des projets qui n'existaient pas, donc forcément moins intéressants et plus long à mettre en oeuvre (il faut parfois plusieurs années). L'intérêt ne va pas de soi...
Au total, le plan qui a été annoncé peut (et doit !) être débattu. Mais certains des arguments qui lui sont opposés ne résistent tout simplement pas à une analyse sérieuse.
dimanche, décembre 07, 2008
samedi, novembre 22, 2008
Misdirection
Lorsque nous regardons une scène, nous avons tendance à nous concentrer sur un point d'attention, et à ignorer ce qui peut se passer sous nos yeux autour.
Un bel exemple ci-dessous :
Un autre exemple plus classique :
Un bel exemple ci-dessous :
Un autre exemple plus classique :
samedi, novembre 01, 2008
Rêve américain ou rêve danois ?
Le rêve américain - arriver avec un dollar en poche et faire fortune en partant de rien - est contesté par l'OCDE dans sa dernière publication consacrée aux inégalités.
Cette publication - intéressante à plus d'un titre - fait notamment apparaitre que c'est au Danemark que les enfants de pauvres ont le plus de chance de devenir riches, les Etats-Unis étant, juste après la Grèce et l'Italie, l'un des pays où le revenu des enfants est le plus dépendant de celui des parents.
La France est en meilleure position, mais elle arrive après les Etats-Unis. La graphique ci-dessus montre d'ailleurs que le problème français est autant un problème d'inégalités de revenus (il y a des riches et des pauvres) qu'un problème d'inégalités des chances (les enfants de pauvres sont pauvres).
Le premier problème est relativement identifié. Le principal facteur est celui du chômage, et la création du "Pole emploi" ou celle du RSA vont sans doutes permettre des améliorations significatives. Le second problème est davantage lié au inégalités des chances, notamment du système d'éducation (et d'accueil de la petite enfance).
Cette publication - intéressante à plus d'un titre - fait notamment apparaitre que c'est au Danemark que les enfants de pauvres ont le plus de chance de devenir riches, les Etats-Unis étant, juste après la Grèce et l'Italie, l'un des pays où le revenu des enfants est le plus dépendant de celui des parents.
La France est en meilleure position, mais elle arrive après les Etats-Unis. La graphique ci-dessus montre d'ailleurs que le problème français est autant un problème d'inégalités de revenus (il y a des riches et des pauvres) qu'un problème d'inégalités des chances (les enfants de pauvres sont pauvres).
Le premier problème est relativement identifié. Le principal facteur est celui du chômage, et la création du "Pole emploi" ou celle du RSA vont sans doutes permettre des améliorations significatives. Le second problème est davantage lié au inégalités des chances, notamment du système d'éducation (et d'accueil de la petite enfance).
dimanche, octobre 26, 2008
Gagner en bourse : actions, obligations, prime de rendement des actions et frais de gestion
Le CAC40 a commencé sa carrière en janvier 1988. Cette indice représente la valeur d'un portefeuille composé des actions qui comptent le plus, selon des règles détaillées sur le site d'Euronext.
Il valait 1000 points le 1er janvier 1988 au matin ; il en valait environ 3200 vendredi dernier à la clôture. Pour avoir une idée du rendement réel du CAC40 depuis cette date, il faut corriger l'indice en incluant les dividendes qui auraient été versés à celui qui aurait "acheté l'indice" début 1988 pour le revendre aujourd'hui. S'il était parti de 1000 euros, il en aurait aujourd'hui un peu plus de 5000, soit un rendement annuel moyen de l'ordre de 8 %.
Pour être totalement réaliste, il faut prendre en compte les frais de gestion : en effet, le CAC40 a évolué au cours du temps. Pour "avoir l'indice" en permanence, il aurait fallu acheter les actions qui y sont entré, et vendre celles qui en sont sorti. Plus généralement, celui qui souhaite acheter un placement promettant le rendement du CAC40 doit acquitter des frais de gestion.
Par exemple, s'il avait investi dans une assurance vie avec des frais d'entrée de 4 % (haut de la fourchette aujourd'hui) sur une durée de 8 ans, et 1 % de frais de gestion annuels, le rendement annuel aurait été de l'ordre de 6,5 %.
Si, au lieu de celà, il avait investi dans des obligations d'Etat (c'est à dire un placement sans risques, et avec peu de frais), il aurait obtenu un rendement légèrement inférieur, de 6,1 % (cf graphique). Notons que si le CAC40 perd encore 6 %, on arrivera au point où posséder des actions et des obligations d'Etat aurait été équivalent pour une personne qui aurait investi depuis 20 ans.
Evolution d'un portefeuille d'action du CAC40 avant et après frais de 1,5 % comparée à un portefeuille d'emprunts d'Etat
On remarquera d'ailleurs qu'à ces prix (ie, le niveau de vendredi dernier moins 6 %, qui correspond au point le plus à droite de la courbe bleue), celui qui revend aujourd'hui se trouve dans une situation où il a forcément perdu s'il a acheté ses actions après le 1er janvier 1988 : il n'existe aucun moment auquel acheter des actions est plus rentable qu'acheter des emprunts d'Etat. On le voit assez facilement sur le graphique ci-dessus : il est impossible de dessiner une ligne débutant sur un point de la courbe rouge, finissant sur le dernier point de la ligne bleue et plus pentue que la ligne bleue (or la pente entre deux points de la ligne rouge représente le rendement entre un achat à la première date et une vente à la seconde).
Faut-il y voir une preuve du fait que les prix atteints vendredi dernier sont très bas ? Oui ! Peut-on en déduire qu'un achat aujourd'hui serait forcément rentable sur le long terme ? Celà dépend en fait de ce que vous pensez être la "prime de rendement action de long terme". Si vous pensez que sur le long terme les actions ont en moyenne un rendement nettement supérieur aux obligations d'Etat (suffisamment supérieur pour absorber les frais de gestion), il vaut mieux acheter aux moments où les prix semblent bas (en cherchant un produit indexé sur un indice comme le CAC40, et présentant les frais les plus bas possibles), donc la période actuelle peut sembler bonne. Ceci suppose cependant d'être prêt à attendre peut-être un peu pour voir la valeur de son portefeuille dépasser celle des emprunts d'Etat(*) (on voit sur le graphique qu'il existe des périodes longues pendant lesquelles les emprunts d'Etat offrent le meilleur rendement).
Sur ce sujet, je vous invite à lire l'article de Pablo Fernandez, consacré à la mesure des différentes définitions de la prime de rendement des actions.
* : En gardant ces titres jusqu'à leur échéance, afin d'éviter d'être soumis au risque de taux sur la valeur de revente.
Il valait 1000 points le 1er janvier 1988 au matin ; il en valait environ 3200 vendredi dernier à la clôture. Pour avoir une idée du rendement réel du CAC40 depuis cette date, il faut corriger l'indice en incluant les dividendes qui auraient été versés à celui qui aurait "acheté l'indice" début 1988 pour le revendre aujourd'hui. S'il était parti de 1000 euros, il en aurait aujourd'hui un peu plus de 5000, soit un rendement annuel moyen de l'ordre de 8 %.
Pour être totalement réaliste, il faut prendre en compte les frais de gestion : en effet, le CAC40 a évolué au cours du temps. Pour "avoir l'indice" en permanence, il aurait fallu acheter les actions qui y sont entré, et vendre celles qui en sont sorti. Plus généralement, celui qui souhaite acheter un placement promettant le rendement du CAC40 doit acquitter des frais de gestion.
Par exemple, s'il avait investi dans une assurance vie avec des frais d'entrée de 4 % (haut de la fourchette aujourd'hui) sur une durée de 8 ans, et 1 % de frais de gestion annuels, le rendement annuel aurait été de l'ordre de 6,5 %.
Si, au lieu de celà, il avait investi dans des obligations d'Etat (c'est à dire un placement sans risques, et avec peu de frais), il aurait obtenu un rendement légèrement inférieur, de 6,1 % (cf graphique). Notons que si le CAC40 perd encore 6 %, on arrivera au point où posséder des actions et des obligations d'Etat aurait été équivalent pour une personne qui aurait investi depuis 20 ans.
On remarquera d'ailleurs qu'à ces prix (ie, le niveau de vendredi dernier moins 6 %, qui correspond au point le plus à droite de la courbe bleue), celui qui revend aujourd'hui se trouve dans une situation où il a forcément perdu s'il a acheté ses actions après le 1er janvier 1988 : il n'existe aucun moment auquel acheter des actions est plus rentable qu'acheter des emprunts d'Etat. On le voit assez facilement sur le graphique ci-dessus : il est impossible de dessiner une ligne débutant sur un point de la courbe rouge, finissant sur le dernier point de la ligne bleue et plus pentue que la ligne bleue (or la pente entre deux points de la ligne rouge représente le rendement entre un achat à la première date et une vente à la seconde).
Faut-il y voir une preuve du fait que les prix atteints vendredi dernier sont très bas ? Oui ! Peut-on en déduire qu'un achat aujourd'hui serait forcément rentable sur le long terme ? Celà dépend en fait de ce que vous pensez être la "prime de rendement action de long terme". Si vous pensez que sur le long terme les actions ont en moyenne un rendement nettement supérieur aux obligations d'Etat (suffisamment supérieur pour absorber les frais de gestion), il vaut mieux acheter aux moments où les prix semblent bas (en cherchant un produit indexé sur un indice comme le CAC40, et présentant les frais les plus bas possibles), donc la période actuelle peut sembler bonne. Ceci suppose cependant d'être prêt à attendre peut-être un peu pour voir la valeur de son portefeuille dépasser celle des emprunts d'Etat(*) (on voit sur le graphique qu'il existe des périodes longues pendant lesquelles les emprunts d'Etat offrent le meilleur rendement).
Sur ce sujet, je vous invite à lire l'article de Pablo Fernandez, consacré à la mesure des différentes définitions de la prime de rendement des actions.
* : En gardant ces titres jusqu'à leur échéance, afin d'éviter d'être soumis au risque de taux sur la valeur de revente.
samedi, octobre 25, 2008
Après la crise, l'Afrique, moteur de la croissance mondiale ?
Le site de France 2025 présente une vidéo très intéressante de Lionel Zinsou, président du groupe "mondialisation".
Il y explique pourquoi l'Afrique peut, demain, être l'un des moteurs de la croissance mondiale.
Il y explique pourquoi l'Afrique peut, demain, être l'un des moteurs de la croissance mondiale.
samedi, octobre 18, 2008
Photocopie 3D pour tous : ca y est !
Le site Shapeways vous permet d'imprimer des objets en 3D ayant la forme que vous voulez, soit en utilisant un fichier généré par un logiciel de représentation 3D, soit en utilisant les outils proposés par le site.
Etonnant...
Etonnant...
samedi, octobre 11, 2008
Crise financière, dépôts bancaires, protection de l'épargne : quelle garantie ?
A l'heure où quelques banques ont connu des difficultés à l'étranger, on peut se poser la question de l'impact potentiel pour le déposant individuel. Autrement dit, face à la crise, quel risque courent ceux qui ont un compte en banque ?
En France, les déposant sont protégés à plusieurs titres :
a - Les autorités bancaires imposent aux banques d'avoir suffisamment de capitaux pour faire face aux risques "normaux" de leur activité. Concrétement, pour chaque euro d'actif ou de prêt, elles doivent avoir 8 centimes "de coté" : c'est le fameux "ratio de solvabilité"
b - Contrairement au droit normal qui ne permet pas d'imposer aux actionnaires de "remettre au pot" en cas de difficultés, les autorités bancaires peuvent demander aux actionnaires de référence des banques de soutenir leur banque, si nécessaire
c - Contrairement aux entreprises ou aux particuliers, les banques ont accès à un "prêteur en dernier ressort", ie la BCE qui peut leur prêter l'argent nécessaire à leur fonctionnement si le marché ne le permet plus. C'est d'ailleurs ce qu'elle a régulièrement fait depuis plusieurs mois.
d - L'Etat a la possibilité d'intervenir et d'entrer au capital des banques qui connaitraient des difficultés. Les responsables du G7 ont fait une déclaration dans ce sens. Ce n'est d'ailleurs pas nécessairement une mauvaise affaire pour le contribuable : l'Etat achète en effet au pire moment pour la banque, à des prix très bas et dans des conditions de marché exceptionnellement défavorables. Il est probable qu'il réalise une plus-value lorsqu'il revendra, une fois la crise dénouée...
e - Il existe un fond de garantie des dépôts qui, si les quatre points précédents ne suffisaient pas, rembourserait les dépôts de tout déposant d'une banque française qui serait dans l'impossibilité de le faire, à hauteur de 70.000 euros.
f - A Toulon, le Président de la République a donné une garantie supplémentaire, en assurant qu'aucun déposant ne perdrait un euro. On peut difficilement être plus clair !
En France, les déposant sont protégés à plusieurs titres :
a - Les autorités bancaires imposent aux banques d'avoir suffisamment de capitaux pour faire face aux risques "normaux" de leur activité. Concrétement, pour chaque euro d'actif ou de prêt, elles doivent avoir 8 centimes "de coté" : c'est le fameux "ratio de solvabilité"
b - Contrairement au droit normal qui ne permet pas d'imposer aux actionnaires de "remettre au pot" en cas de difficultés, les autorités bancaires peuvent demander aux actionnaires de référence des banques de soutenir leur banque, si nécessaire
c - Contrairement aux entreprises ou aux particuliers, les banques ont accès à un "prêteur en dernier ressort", ie la BCE qui peut leur prêter l'argent nécessaire à leur fonctionnement si le marché ne le permet plus. C'est d'ailleurs ce qu'elle a régulièrement fait depuis plusieurs mois.
d - L'Etat a la possibilité d'intervenir et d'entrer au capital des banques qui connaitraient des difficultés. Les responsables du G7 ont fait une déclaration dans ce sens. Ce n'est d'ailleurs pas nécessairement une mauvaise affaire pour le contribuable : l'Etat achète en effet au pire moment pour la banque, à des prix très bas et dans des conditions de marché exceptionnellement défavorables. Il est probable qu'il réalise une plus-value lorsqu'il revendra, une fois la crise dénouée...
e - Il existe un fond de garantie des dépôts qui, si les quatre points précédents ne suffisaient pas, rembourserait les dépôts de tout déposant d'une banque française qui serait dans l'impossibilité de le faire, à hauteur de 70.000 euros.
f - A Toulon, le Président de la République a donné une garantie supplémentaire, en assurant qu'aucun déposant ne perdrait un euro. On peut difficilement être plus clair !
dimanche, octobre 05, 2008
Ecrivez la France 2025 !
Le site www.france2025.fr présente une mine d'information inégalée sur le web sur l'état de la France, ainsi que de nombreuses vidéo d'experts de premier plan qui interviennent sur les enjeux d'avenir pour notre pays.
Ce site étant un wiki, vous pouvez le commenter, le compléter et ajouter votre propres analyses de ce que pourrait être notre pays en 2025, et ce que nous pouvons faire pour le rendre le meilleur possible.
Allez-y faire un tour, celà vaut le déplacement...
Ce site étant un wiki, vous pouvez le commenter, le compléter et ajouter votre propres analyses de ce que pourrait être notre pays en 2025, et ce que nous pouvons faire pour le rendre le meilleur possible.
Allez-y faire un tour, celà vaut le déplacement...
vendredi, juillet 25, 2008
De l'importance des prélèvements non obligatoires dans la compétitivité
KPMG vient de rendre publique sa traditionnelle étude sur la compétitivité. Cette étude compare le coût total d'implantation d'entreprises dans différents pays (2000 cas d'entreprises, 17 secteurs d'activité). Elle intégre la plupart des facteurs quantitatifs (salaires, impôts, coût des infrastructures et des télécommunications,...) pris en compte dans les choix de (dé)localisation d'entreprises.
La France en ressort en première place du classement européen, avec un désavantage de coût de seulement 3 à 4 % par rapport aux Etats-Unis (et ce malgré la hausse récente de 60 % de l'euro face au dollar).
Sans entrer dans le détail de cette étude, on peut noter l'intéressant comparatif des coûts salariaux moyens :
(cliquer sur le graphique pour l'agrandir)
Il en ressort en effet que si les prélèvements obligatoires sur les salaires sont les plus élevés en France, les prélèvements "non obligatoires" (mutuelle complémentaire prise en charge par l'employeur, retraite complémentaire,...) compensent largement cet état de fait - en plus du niveau moyen des salaires, plus modéré en France qu'ailleurs. Ce qui traduit sans doute en partie le fait que les salariés bénéficient en France gratuitement d'assurance sociales ou de prestations en matière de santé, d'éducation ou de famille qu'ils doivent financer sur leur salaire ailleurs...
La France en ressort en première place du classement européen, avec un désavantage de coût de seulement 3 à 4 % par rapport aux Etats-Unis (et ce malgré la hausse récente de 60 % de l'euro face au dollar).
Sans entrer dans le détail de cette étude, on peut noter l'intéressant comparatif des coûts salariaux moyens :
Il en ressort en effet que si les prélèvements obligatoires sur les salaires sont les plus élevés en France, les prélèvements "non obligatoires" (mutuelle complémentaire prise en charge par l'employeur, retraite complémentaire,...) compensent largement cet état de fait - en plus du niveau moyen des salaires, plus modéré en France qu'ailleurs. Ce qui traduit sans doute en partie le fait que les salariés bénéficient en France gratuitement d'assurance sociales ou de prestations en matière de santé, d'éducation ou de famille qu'ils doivent financer sur leur salaire ailleurs...
jeudi, juillet 24, 2008
Physique des mouvements de foule
Quel point commun entre un tremblement de terre, la cassure d'une plaque, un crash boursier, une révolution ou la montée dans l'opinion d'une personnalité politique ? Selon Didier Sornette et alii, ces phénomène ont en commun un changement rapide de régime dans un système auto-organisé (c'est à dire des systèmes composés d'un grand nombre de systèmes ayant leurs règles propres, par exemple une foule composée d'individus ou un marché financier composé d'acheteurs et de vendeurs).
L'analyse de Sornette permet d'expliquer des phénomènes sociaux tels que :
- le fait que les "ruptures" sont moins détectables lorsqu'elles concernent un ensemble homogène (les militants d'un parti) que lorsqu'elles portent sur un ensemble plus hétérogène (une nation). Ainsi, la percée d'OBama au sein de son parti a-t-elle été fulgurante, et pour beaucoup imprévisible. Là où certains ont pu voir dans cette ascension rapide le fruit d'une "bulle", on peut y voir tout simplement la "crystallisation" rapide d'un succès mérité...
- le fait que, dans des milieux hétérogènes, ces ruptures sont généralement précédées de "fissures" ou de "craquements" dont la fréquence d'apparition peut permettre de prévoir un "rupture" plus forte. Pour Sornette, ces "craquements" traduisent une mise en cohérence d'une partie croissante des "micro systèmes". De la même façon, un crash boursier correspond au moment où un part importante des acteurs partage la même opinion sur la sur-valorisation (par rapport à leur prix) d'un certain nombre d'actions - ces acteurs étant organisés en "grappes" (les traders parlent entre eux, les boursicoteurs aussi,...) ;
- ces "craquements" peuvent être causés par des évènements extérieurs sans rapport avec la source réelle de ce "craquement". Par exemple, un crash boursier de grande ampleur peut se déclencher à la suite d'une nouvelle en apparence de peu d'importance. Pour cette raison, un système soumis à une forte tension (par exemple, une organisation soumise à des règles incohérentes) est ingouvernable, car toute décision, même si ses conséquences sont positives et même si elle est sans rapport avec les problèmes de fond de l'organisation, peut créer une fracture. Pour prendre un exemple ancien, le rejet de la réforme proposée par De Gaulle sur les régions peut entrer dans cette catégorie (mais il y en a de plus récent...).
Cette analyse rejoint une approche moins scientifique (mais à plus grand succès littéraire), celle de Malcom Gladwell.
L'analyse de Sornette permet d'expliquer des phénomènes sociaux tels que :
- le fait que les "ruptures" sont moins détectables lorsqu'elles concernent un ensemble homogène (les militants d'un parti) que lorsqu'elles portent sur un ensemble plus hétérogène (une nation). Ainsi, la percée d'OBama au sein de son parti a-t-elle été fulgurante, et pour beaucoup imprévisible. Là où certains ont pu voir dans cette ascension rapide le fruit d'une "bulle", on peut y voir tout simplement la "crystallisation" rapide d'un succès mérité...
- le fait que, dans des milieux hétérogènes, ces ruptures sont généralement précédées de "fissures" ou de "craquements" dont la fréquence d'apparition peut permettre de prévoir un "rupture" plus forte. Pour Sornette, ces "craquements" traduisent une mise en cohérence d'une partie croissante des "micro systèmes". De la même façon, un crash boursier correspond au moment où un part importante des acteurs partage la même opinion sur la sur-valorisation (par rapport à leur prix) d'un certain nombre d'actions - ces acteurs étant organisés en "grappes" (les traders parlent entre eux, les boursicoteurs aussi,...) ;
- ces "craquements" peuvent être causés par des évènements extérieurs sans rapport avec la source réelle de ce "craquement". Par exemple, un crash boursier de grande ampleur peut se déclencher à la suite d'une nouvelle en apparence de peu d'importance. Pour cette raison, un système soumis à une forte tension (par exemple, une organisation soumise à des règles incohérentes) est ingouvernable, car toute décision, même si ses conséquences sont positives et même si elle est sans rapport avec les problèmes de fond de l'organisation, peut créer une fracture. Pour prendre un exemple ancien, le rejet de la réforme proposée par De Gaulle sur les régions peut entrer dans cette catégorie (mais il y en a de plus récent...).
Cette analyse rejoint une approche moins scientifique (mais à plus grand succès littéraire), celle de Malcom Gladwell.
samedi, juillet 12, 2008
Comment créer la cohésion sociale ? Les critères de Fukuyama
Dans "Le grand bouleversement", le philosophe politique Francis Fukuyama a étudié les critères qui font le niveau de cohésion d'une société ou d'un groupe de personnes.
Selon Fukuyama, les groupes les plus favorables à l’existence d’un lien social fort vérifient les critères suivants :
- la taille du groupe : plus il est large, plus il est difficile aux membres du groupe de se coordonner. Le risque de « passagers clandestins », ceux qui cherchent à profiter des bienfaits de l’action collective tout en évitant d’y contribuer, est plus probable dans une collectivité de taille importante où chacun peut se dissimuler derrière l'anonymat, que dans un groupe restreint où chacun se connaît et peut surveiller.
- l'existence d'une frontière claire entre ceux qui font partie du groupe, et ceux qui n'en sont pas : il est difficile de développer ou de maintenir une forte cohésion dans un groupe dont le périmètre est imprécis (qui empêche de savoir qui fait partie du groupe ou de pouvoir contrôler qui entre et qui sort) ou mouvant.
- la fréquence des relations entre membres du groupe : un groupe dans lequel les acteurs ont des relations nombreuses et répétées (et donc une « réputation à conserver » pour les relations à venir) se prête davantage à une forte cohésion qu’un groupe dans lequel les acteurs se rencontrent de façon plus épisodique.
- l’existence de normes communes favorisant une culture commune : cette culture commune crée un langage commun, des règles communes et facilite la compréhension et la coordination au sein du groupe. Les éventuels conflits peuvent se résoudre plus facilement dans un groupe dont les membres partagent la même culture ou les même valeurs, que dans un groupe comportant plusieurs « classes » de culture ou d’objectifs différents.
- le niveau de justice et l’équilibre des rapports de force : il est difficile d'attendre une forte cohésion d'un groupe dans lequel le pouvoir est réparti de façon inégale ou fondé sur des règles inéquitables.
- le niveau de transparence : une transparence aussi forte que possible est préférable dans la mesure où elle permettra d'identifier rapidement les comportements individuels ou collectifs "anti sociaux".
Une liste qui vaut bien des manuels de management ou de science politique...
Selon Fukuyama, les groupes les plus favorables à l’existence d’un lien social fort vérifient les critères suivants :
- la taille du groupe : plus il est large, plus il est difficile aux membres du groupe de se coordonner. Le risque de « passagers clandestins », ceux qui cherchent à profiter des bienfaits de l’action collective tout en évitant d’y contribuer, est plus probable dans une collectivité de taille importante où chacun peut se dissimuler derrière l'anonymat, que dans un groupe restreint où chacun se connaît et peut surveiller.
- l'existence d'une frontière claire entre ceux qui font partie du groupe, et ceux qui n'en sont pas : il est difficile de développer ou de maintenir une forte cohésion dans un groupe dont le périmètre est imprécis (qui empêche de savoir qui fait partie du groupe ou de pouvoir contrôler qui entre et qui sort) ou mouvant.
- la fréquence des relations entre membres du groupe : un groupe dans lequel les acteurs ont des relations nombreuses et répétées (et donc une « réputation à conserver » pour les relations à venir) se prête davantage à une forte cohésion qu’un groupe dans lequel les acteurs se rencontrent de façon plus épisodique.
- l’existence de normes communes favorisant une culture commune : cette culture commune crée un langage commun, des règles communes et facilite la compréhension et la coordination au sein du groupe. Les éventuels conflits peuvent se résoudre plus facilement dans un groupe dont les membres partagent la même culture ou les même valeurs, que dans un groupe comportant plusieurs « classes » de culture ou d’objectifs différents.
- le niveau de justice et l’équilibre des rapports de force : il est difficile d'attendre une forte cohésion d'un groupe dans lequel le pouvoir est réparti de façon inégale ou fondé sur des règles inéquitables.
- le niveau de transparence : une transparence aussi forte que possible est préférable dans la mesure où elle permettra d'identifier rapidement les comportements individuels ou collectifs "anti sociaux".
Une liste qui vaut bien des manuels de management ou de science politique...
Le 21e siécle sera institutionnel et moral, ou ne sera pas !
Tout le monde, ou presque, s'accorde à penser qu'une économie harmonieuse suppose un bon équilibre entre deux objectifs contradictoires. D'une part, la prospérité économique (disons, le niveau du PIB même s'il s'agit d'une mesure perfectible). D'autre part, l'équilibre social (plus difficile à définir, qui contient à la fois les conditions de vie les plus pauvres, l'égalité des chances, le fait que les inégalités de conditions de vie ne soient pas disproportionnées par rapport aux efforts de chacun, le niveau de confiance que chacun peut avoir dans ses concitoyens, ou ...).
Une autre façon de dire les choses consiste à dire que l'argent ne fait pas le bonheur, et qu'une nation florissante doit permettre à ses concitoyens d'avoir de l'argent, mais aussi autre chose. Mais comment parvenir à cet équilibre ?
Une première école de pensée suppose que les deux peuvent être séparés : au secteur privé de fournir la prospérité économique, l'Etat et le secteur non lucratif (groupes religieux, famille, relations de voisinages...) de fournir le reste. Ils notent par ailleurs qu'en raison de la concurrence (entre entreprises d'un même pays, ou entre entreprises nationales plus "sociales" et entreprises étrangères moins soucieuses du bien-être social du pays qui achète leurs produits), il serait difficile pour les entreprises d'être trop sociales, le consommateur choisissant généralement la moins chère, et les actionnaires (ou les futurs retraités pour leur retraite par capitalisation) choisiront d'investir dans les entreprises les plus rentables.
Une deuxième école note considère qu'économie et société sont indissociables, ce qui impose notamment que les entreprises devant faire preuve de responsabilité sociale. Elle notent que les consommateurs sont capables de "faire la différence" s'ils sont correctement informés sur les conséquences sociales de leurs achats.
Comme toujours, la réalité si situe entre les deux :
- il est vrai que la concurrence pose des limites en matière sociale, mais ces limites dépendent du secteur (une partie du secteur des services est contraint à une concurrence très locale) et des réglementations (la fiscalité, les cotisations sociales ou les normes peuvent être différents d'un pays à l'autre) ;
- il est vrai que les produits équitables ou les investissements éthiques connaissent un certain succès, mais il reste très limité en ampleur : le chiffre d'affaires mondial du commerce équitable est d'un milliard d'euros, soit moins de 0,1 % de la production nationale française.
Une façon de réconcilier les deux modèles consiste à traiter les objectifs du second modèle avec les outils du premier. Concrètement, il s'agit d'identifier les "nuisances sociales", de leur donner un prix et de le faire payer à ceux qui les génèrent :
- assurance chômage à bonus/malus pour faire payer le "prix de la précarité". Pour être juste un tel dispositif nécessite une certaine sophistication, notamment pour ne pas pénaliser les entreprises qui recrutent des chômeurs "difficiles" (et donc avec plus de chances d'échec) par rapport à celles qui refusent les demandeurs d'emploi les plus en difficulté ;
- taxe à l'importation compensatrice des avantages sociaux indus. Une telle taxe est probablement très difficile à mettre en pratique, notamment parce qu'elle impose de définir l'avantage indus, produit par produit - avec le risque de pressions protectionnistes. Une variante de ce type de taxe est le projet de taxe sur le "carbone importé", qui vise à corriger l'avantage comparatif dont disposent les usines situées dans des pays qui n'appliquent pas le protocole de Kyoto sur la réduction des émissions de gaz à effet de serre sur les entreprises qui sont soumises à des contraintes (comme les entreprises européennes) ;
- droit social très ferme en matière de lutte contre les discriminations et le harcèlement ;
On notera qu'il subsiste un certain nombre de domaines dans lesquels il est difficile d'introduire ce type de corrections. Par exemple, il serait difficile de construire une taxe sur le stress au travail (difficile à mesurer) - sans parler du malheur au travail ! Tout au plus peut-on organiser une plus grande transparence sur le taux de mobilité (un taux élevé est généralement le symptôme d'une entreprise où il ne fait pas bon vivre, qui devra payer plus cher pour attirer des salariés). Dans une société, c'est généralement le rôle des règles morales de contrôler ce genre de comportements (en éduquant les citoyens pour être sensible au malheur d'autrui, et en faisant en sorte que ceux qui n'y sont pas sensibles soit stigmatisés et aient intérêt à "rentrer dans le rang").
De la même façon, le niveau de cohésion sociale et de confiance d'un pays dépend de nombreuses causes qu'il est difficile d'identifier et auxquelles il est difficile de donner un prix. Il est également lié (j'y reviendrais dans un autre article) à la force et à la nature des régles morales.
Ces derniers points dépendent davantage d'un projet politique, et du rôle des institutions morales, c'est à dire des entités qui organisent et régulent la morale et sanctionnent les comportement "immoraux" : famille, groupes religieux ou associations philosophiques mais également en partie l'Etat, ou les collectivités.
Compte tenu de la montée de la demande d'une société moins individualiste (notamment chez les jeunes), on pourrait déclarer en paraphrasant Malraux "Le XXIe siécle sera celui des institutions morales, ou ne sera pas !".
Une autre façon de dire les choses consiste à dire que l'argent ne fait pas le bonheur, et qu'une nation florissante doit permettre à ses concitoyens d'avoir de l'argent, mais aussi autre chose. Mais comment parvenir à cet équilibre ?
Une première école de pensée suppose que les deux peuvent être séparés : au secteur privé de fournir la prospérité économique, l'Etat et le secteur non lucratif (groupes religieux, famille, relations de voisinages...) de fournir le reste. Ils notent par ailleurs qu'en raison de la concurrence (entre entreprises d'un même pays, ou entre entreprises nationales plus "sociales" et entreprises étrangères moins soucieuses du bien-être social du pays qui achète leurs produits), il serait difficile pour les entreprises d'être trop sociales, le consommateur choisissant généralement la moins chère, et les actionnaires (ou les futurs retraités pour leur retraite par capitalisation) choisiront d'investir dans les entreprises les plus rentables.
Une deuxième école note considère qu'économie et société sont indissociables, ce qui impose notamment que les entreprises devant faire preuve de responsabilité sociale. Elle notent que les consommateurs sont capables de "faire la différence" s'ils sont correctement informés sur les conséquences sociales de leurs achats.
Comme toujours, la réalité si situe entre les deux :
- il est vrai que la concurrence pose des limites en matière sociale, mais ces limites dépendent du secteur (une partie du secteur des services est contraint à une concurrence très locale) et des réglementations (la fiscalité, les cotisations sociales ou les normes peuvent être différents d'un pays à l'autre) ;
- il est vrai que les produits équitables ou les investissements éthiques connaissent un certain succès, mais il reste très limité en ampleur : le chiffre d'affaires mondial du commerce équitable est d'un milliard d'euros, soit moins de 0,1 % de la production nationale française.
Une façon de réconcilier les deux modèles consiste à traiter les objectifs du second modèle avec les outils du premier. Concrètement, il s'agit d'identifier les "nuisances sociales", de leur donner un prix et de le faire payer à ceux qui les génèrent :
- assurance chômage à bonus/malus pour faire payer le "prix de la précarité". Pour être juste un tel dispositif nécessite une certaine sophistication, notamment pour ne pas pénaliser les entreprises qui recrutent des chômeurs "difficiles" (et donc avec plus de chances d'échec) par rapport à celles qui refusent les demandeurs d'emploi les plus en difficulté ;
- taxe à l'importation compensatrice des avantages sociaux indus. Une telle taxe est probablement très difficile à mettre en pratique, notamment parce qu'elle impose de définir l'avantage indus, produit par produit - avec le risque de pressions protectionnistes. Une variante de ce type de taxe est le projet de taxe sur le "carbone importé", qui vise à corriger l'avantage comparatif dont disposent les usines situées dans des pays qui n'appliquent pas le protocole de Kyoto sur la réduction des émissions de gaz à effet de serre sur les entreprises qui sont soumises à des contraintes (comme les entreprises européennes) ;
- droit social très ferme en matière de lutte contre les discriminations et le harcèlement ;
On notera qu'il subsiste un certain nombre de domaines dans lesquels il est difficile d'introduire ce type de corrections. Par exemple, il serait difficile de construire une taxe sur le stress au travail (difficile à mesurer) - sans parler du malheur au travail ! Tout au plus peut-on organiser une plus grande transparence sur le taux de mobilité (un taux élevé est généralement le symptôme d'une entreprise où il ne fait pas bon vivre, qui devra payer plus cher pour attirer des salariés). Dans une société, c'est généralement le rôle des règles morales de contrôler ce genre de comportements (en éduquant les citoyens pour être sensible au malheur d'autrui, et en faisant en sorte que ceux qui n'y sont pas sensibles soit stigmatisés et aient intérêt à "rentrer dans le rang").
De la même façon, le niveau de cohésion sociale et de confiance d'un pays dépend de nombreuses causes qu'il est difficile d'identifier et auxquelles il est difficile de donner un prix. Il est également lié (j'y reviendrais dans un autre article) à la force et à la nature des régles morales.
Ces derniers points dépendent davantage d'un projet politique, et du rôle des institutions morales, c'est à dire des entités qui organisent et régulent la morale et sanctionnent les comportement "immoraux" : famille, groupes religieux ou associations philosophiques mais également en partie l'Etat, ou les collectivités.
Compte tenu de la montée de la demande d'une société moins individualiste (notamment chez les jeunes), on pourrait déclarer en paraphrasant Malraux "Le XXIe siécle sera celui des institutions morales, ou ne sera pas !".
Libellés :
droit social,
institutions,
malraux,
morale,
responsabilité sociale,
social
mercredi, juin 18, 2008
Lutter contre les prix du pétrole ? Oui, avec l'innovation...
Le prix du pétrole bat des records, et cette augmentation pèse évidemment lourd sur le budget des ménages à court terme - et ce d'autant plus que l'augmentation est brutale.
Le budget des ménages a-t-il pour autant vocation à être laminé par l'évolution du prix de l'énergie ? Pas forcément, comme l'indique un chiffre intéressant publié par le cabinet Arthur D Little : entre les années 80 et aujourd'hui, la dépense automobile des ménages a baissé de 25 %. Pour que l'on retrouve une dépense comparable à celle des années 80, il faudrait que le prix du pétrole atteigne environ 200 $ (contre 130 à 140 actuellement).
Pourquoi ? Simplement parce près de 72 % des dépenses liées à une automobile ne concernent pas le carburant :
Or les autres éléments du tableau précédent ont connu des gains de productivité suffisant pour absorber, sur longue période, les hausses récentes de l'essence et même plus. Evidemment, la situation est un peu plus délicate pour le consommateur quand il a pendant longtemps bénéficié des baisses de prix des véhicules automobiles liées aux gains de productivité, et que le prix du pétrole augmente rapidement après être resté longtemps relativement modéré !
Ainsi, des gains de productivité de 1 % par an durant 20 ans dans la construction et la réparation automobile permettent d'absorber l'effet sur le budget des ménages d'une hausse du prix du pétrole d'un tiers sur la même période. Et ceci sans compter l'amélioration du rendement des moteurs.
Pour donner un exemple chiffré, si d'ici 2028 la construction et la réparation automobile connaissaient des gains de productivité de 1% par an, et si le rendement des moteurs s'améliorait d'un tiers, alors nous pourrions atteindre un prix du pétrole de 400 $ par baril, sans que le coût de l'automobile ne pèse plus sur le budget des ménages que ce n'était le cas dans les années 80...
Autrement dit, les manifestations récentes pour la baisse du prix du pétrole se trompent de cible : manifester pour renforcer la recherche et l'innovation dans le domaine des transports et de l'utilisation de l'énergie constitue sans doute un moyen aussi efficace, et davantage à notre portée pour effacer l'effet des hausse de prix du pétrole...
Le budget des ménages a-t-il pour autant vocation à être laminé par l'évolution du prix de l'énergie ? Pas forcément, comme l'indique un chiffre intéressant publié par le cabinet Arthur D Little : entre les années 80 et aujourd'hui, la dépense automobile des ménages a baissé de 25 %. Pour que l'on retrouve une dépense comparable à celle des années 80, il faudrait que le prix du pétrole atteigne environ 200 $ (contre 130 à 140 actuellement).
Pourquoi ? Simplement parce près de 72 % des dépenses liées à une automobile ne concernent pas le carburant :
Or les autres éléments du tableau précédent ont connu des gains de productivité suffisant pour absorber, sur longue période, les hausses récentes de l'essence et même plus. Evidemment, la situation est un peu plus délicate pour le consommateur quand il a pendant longtemps bénéficié des baisses de prix des véhicules automobiles liées aux gains de productivité, et que le prix du pétrole augmente rapidement après être resté longtemps relativement modéré !
Ainsi, des gains de productivité de 1 % par an durant 20 ans dans la construction et la réparation automobile permettent d'absorber l'effet sur le budget des ménages d'une hausse du prix du pétrole d'un tiers sur la même période. Et ceci sans compter l'amélioration du rendement des moteurs.
Pour donner un exemple chiffré, si d'ici 2028 la construction et la réparation automobile connaissaient des gains de productivité de 1% par an, et si le rendement des moteurs s'améliorait d'un tiers, alors nous pourrions atteindre un prix du pétrole de 400 $ par baril, sans que le coût de l'automobile ne pèse plus sur le budget des ménages que ce n'était le cas dans les années 80...
Autrement dit, les manifestations récentes pour la baisse du prix du pétrole se trompent de cible : manifester pour renforcer la recherche et l'innovation dans le domaine des transports et de l'utilisation de l'énergie constitue sans doute un moyen aussi efficace, et davantage à notre portée pour effacer l'effet des hausse de prix du pétrole...
samedi, juin 14, 2008
2025 : le pétaflop pour tous !
Un ordinateur vient de dépasser le pétaflop, c'est à dire le million de milliards d'opérations par seconde, à l'aide d'une machine construite à partir de 116 640 microprocesseurs de consoles de jeux en parallele.
C'est beaucoup. Celà dit, si l'on en croit le graphique ci-dessus attendez-vous à avoir cette puissance sur votre ordinateur en 2025...
samedi, avril 26, 2008
Quelle France dans 15 ans ?
Dans un court article paru à l'été dernier dans la Harvard Business Review, Mansour Javidan présente un schéma intéressant, qui fait apparaître une corrélation assez nette entre la capacité des nations à se projeter dans l'avenir et leur compétitivité :
La France s'y distingue par une compétitivité relativement forte, mais une capacité faible à se projeter dans l'avenir. Et effectivement, plusieurs études montrent que l'avenir inquiete plus qu'il ne fait rêver. Dans le même temps, le succès considérable de livres consacrés à l'avenir semble indiquer que ces angoisses sont plus un problème d'offre que de demande : on ne parle plus assez aux français de leur avenir.
Jusqu'en 1993, date de la fin du dernier plan français, la France avait un rendez-vous institutionnel avec l'avenir. La construction des Plans conduisant à animer un débat sur l'avenir, et à présenter un débat sur les différents scénarios possibles. Elle se poursuivait par des objectifs qui se sont avérés difficiles au fur et à mesure que la volonté d'administrer l'économie s'affaiblissait.
La France n'a donc plus de Plan. Comme d'ailleurs la plupart des pays développés. Les grandes entreprises n'ont d'ailleurs pas non plus de direction du plan. Mais elles ont toutes, même quand elles sont soumises aux actionnaires les plus exigeants en termes de rentabilité - des directions de la stratégie.
Autrement dit, aujourd'hui les entreprises aux mains de fonds de pensions étrangers se dotent de davantage de moyens pour se projeter dans l'avenir que ne le faisait la France. Censées être aux mains "d'actionnaires obnubilés par les profits de court terme", ces entreprises s'intéressent plus à l'avenir que l'Etat...
Nous n'avons pas su prendre le virage du plan à la stratégie, contrairement à ds pays comme la Grande Bretagne (où la Strategy Unit produit régulièrement des diagnostics stratégiques), le Danemark, qui a lancé un conseil de globalisation présidé par le Premier Ministre ou la Corée dont l'exercice "Corée 2030" est reconnu comme l'un des plus réussis du genre.
C'est dans ce contexte que le Secrétariat d'Etat à la Prospective vient de lancer France 2025, un exercice de prospective destiné à nous éclairer davantage sur les tendances les plus structurantes, et les différents scénarios d'évolution envisageables à quinze ans.
Ce travail a débuté le 22 avril dernier par une séance de lancement au Centre d'Analyse Stratégique. Un premier état des lieux - limité à des éléments descriptifs sur 2008 - a été publié à cette occasion.
La France s'y distingue par une compétitivité relativement forte, mais une capacité faible à se projeter dans l'avenir. Et effectivement, plusieurs études montrent que l'avenir inquiete plus qu'il ne fait rêver. Dans le même temps, le succès considérable de livres consacrés à l'avenir semble indiquer que ces angoisses sont plus un problème d'offre que de demande : on ne parle plus assez aux français de leur avenir.
Jusqu'en 1993, date de la fin du dernier plan français, la France avait un rendez-vous institutionnel avec l'avenir. La construction des Plans conduisant à animer un débat sur l'avenir, et à présenter un débat sur les différents scénarios possibles. Elle se poursuivait par des objectifs qui se sont avérés difficiles au fur et à mesure que la volonté d'administrer l'économie s'affaiblissait.
La France n'a donc plus de Plan. Comme d'ailleurs la plupart des pays développés. Les grandes entreprises n'ont d'ailleurs pas non plus de direction du plan. Mais elles ont toutes, même quand elles sont soumises aux actionnaires les plus exigeants en termes de rentabilité - des directions de la stratégie.
Autrement dit, aujourd'hui les entreprises aux mains de fonds de pensions étrangers se dotent de davantage de moyens pour se projeter dans l'avenir que ne le faisait la France. Censées être aux mains "d'actionnaires obnubilés par les profits de court terme", ces entreprises s'intéressent plus à l'avenir que l'Etat...
Nous n'avons pas su prendre le virage du plan à la stratégie, contrairement à ds pays comme la Grande Bretagne (où la Strategy Unit produit régulièrement des diagnostics stratégiques), le Danemark, qui a lancé un conseil de globalisation présidé par le Premier Ministre ou la Corée dont l'exercice "Corée 2030" est reconnu comme l'un des plus réussis du genre.
C'est dans ce contexte que le Secrétariat d'Etat à la Prospective vient de lancer France 2025, un exercice de prospective destiné à nous éclairer davantage sur les tendances les plus structurantes, et les différents scénarios d'évolution envisageables à quinze ans.
Ce travail a débuté le 22 avril dernier par une séance de lancement au Centre d'Analyse Stratégique. Un premier état des lieux - limité à des éléments descriptifs sur 2008 - a été publié à cette occasion.
dimanche, avril 13, 2008
Subprimes, débat sur le pouvoir d'achat : Kondratieff les avait prévus !
L'économiste russe Kondratieff remarqua dans les années vingt que l'économie progresse davantage par phases successives d'accélération et de ralentissement, plutôt que par une croissance régulière.
Selon lui, l'histoire économique est marquée par des cycles économiques que l'on peut diviser en deux phases.
La première phase est une phase d'investissement. Cette phase commence dans la vertu, et accompagne le développement d'innovations importantes (la machine à vapeur, le chemin de fer, l'automobile...), mais bascule progressivement vers un mode plus excessif dans lequel les investissements deviennent progressivement "irrationels" (c'est à dire supérieurs à ce qu'il faudrait, et donc moins rentables que prévu), les prix s'élèvent (car les industriels répercutent sur les clients leurs investissements et leurs attentes - pas nécessairement réalistes - de retour sur investissement). La finance oriente les ressources non plus vers les projets qui vont se révéler les plus porteurs, mais vers les "plus optimistes" - ie ceux capables de promettre un rendement fort, mais impossible à soutenir.
La fin de la première phase est donc marquée par une euphorie (nuancée par les doutes de quelques économistes, largement ignorés) qui prépare des "lendemains qui déchantent". Au "point de retournement", qui marque la fin de la première phase, les prix sont élevés. Les attentes des entreprises (des profits élevés fondés sur une poursuite infinie de la croissance de la consommation) comme celles des consommateurs (des hausses de salaires fondées sur la poursuite infinie de la hausse des profits des entreprises) sont déçues. Les conflits de répartition se développent (pouvoir d'achat, conflits de territoire, guerres liées au contrôle des matières premières, lutte pour la protection de rentes ou de privilèges...). On constate une incapacité de la société à affronter ses propres contradictions, et une tendance à la recherche de boucs émissaires à des problèmes dont les causes profondes sont pourtant internes : les mêmes raisons qui font la vertu et la cohésion d'une société (cohésion qui lui permet de réunir les ressources nécessaires au développement des grands projets industriels de début de phase) conduisent également aux mouvements moutonniers qui annoncent les excès de fin de phase...
La seconde phase du cycle est une phase d'ajustement, qui s'accompagne d'une baisse des prix et des taux d'intérêts. C'est une phase décrite par Schumpeter "de destruction créatrice", dans laquelle les secteurs surdéveloppés pendant la fin de la phase d'euphorie font place progressivement à des secteurs plus porteurs qui préparent les innovations à venir. Cette phase prépare une nouvelle vague
d'innovations, qui ouvre la voie du cycle suivant.
Sans donner trop d'importance à la précision des dates indiquées ci-dessous, on peut distinguer les cycles suivants, chacun étant lié à des innovations majeures.
(cliquer pour agrandir)
Bien sur, la fin d'un cycle n'est jamais datée de façon précise - ainsi les premiers travaux qui ont ouvert la voie au développement du numérique datent de bien avant 1990. De la même façon, la fin d'un cycle coïncide généralement avec le début du suivant sans que personne ne puisse dire précisément où l'un finit et l'autre commence. Malgré ces nécessaires imprécisions, la théorie de Kondratieff permet de donner un éclairage historique à certains phénomènes :
- les conflits de répartition (pouvoir d'achat, protection des rentes,...) ne peuvent trouver de réelle solution que dans le démarrage d'une nouveau cycle, c'est à dire dans l'innovation et la croissance
- le rôle de l'industrie financière est ambivalent, puisqu'elle fournit à la fois les moyens de financement des innovations de première phase, et les mécanismes complexes qui facilitent les excès et qui préparent la fin de cette phase. La crise des subprimes illustre parfaitement ce second rôle, le premier correspondant davantage au rôle du capital risque ou du Nasdaq dans le développement des géants du logiciel et de l'internet américain.
- les politiques de la concurrence, les règles du commerce mondial et le système de protection sociale jouent également un rôle important, notamment dans le cycle actuel. En effet, en phase de "destruction créatrice", les entreprises vont chercher à atteindre une rentabilité qui ne sera plus à la portée de certaines d'entre elles. Pour celà, elles vont rechercher des marges de manoeuvre sur leurs principaux facteurs de production - dont le facteur travail (réduction des hausses de salaire, efforts de productivité,...). Elles le feront d'autant plus qu'elles sont concurrencées par des pays pratiquant des normes sociales nettement moins exigeants (et donc dans lesquels les entreprises trouvent plus facilement la solution à leur difficultés aux détriments des salariés). Par ailleurs la "destruction créatrice" sera d'autant plus difficile et douloureuse que le modèle social protège les statuts plutôt que les personnes (sur cette question essentielle, lire l'article lumineux de John Sutton).
Notons enfin qu'un bon indicateur de cycle à surveiller est le secteur d'embauche des jeunes diplômés. Les fonctions les plus valorisées marquent en effet les priorités d'une époque...
(cliquer pour agrandir)
PS : Sur le même sujet, une perspective historique intéressante de Carmen Reinhart.
Selon lui, l'histoire économique est marquée par des cycles économiques que l'on peut diviser en deux phases.
La première phase est une phase d'investissement. Cette phase commence dans la vertu, et accompagne le développement d'innovations importantes (la machine à vapeur, le chemin de fer, l'automobile...), mais bascule progressivement vers un mode plus excessif dans lequel les investissements deviennent progressivement "irrationels" (c'est à dire supérieurs à ce qu'il faudrait, et donc moins rentables que prévu), les prix s'élèvent (car les industriels répercutent sur les clients leurs investissements et leurs attentes - pas nécessairement réalistes - de retour sur investissement). La finance oriente les ressources non plus vers les projets qui vont se révéler les plus porteurs, mais vers les "plus optimistes" - ie ceux capables de promettre un rendement fort, mais impossible à soutenir.
La fin de la première phase est donc marquée par une euphorie (nuancée par les doutes de quelques économistes, largement ignorés) qui prépare des "lendemains qui déchantent". Au "point de retournement", qui marque la fin de la première phase, les prix sont élevés. Les attentes des entreprises (des profits élevés fondés sur une poursuite infinie de la croissance de la consommation) comme celles des consommateurs (des hausses de salaires fondées sur la poursuite infinie de la hausse des profits des entreprises) sont déçues. Les conflits de répartition se développent (pouvoir d'achat, conflits de territoire, guerres liées au contrôle des matières premières, lutte pour la protection de rentes ou de privilèges...). On constate une incapacité de la société à affronter ses propres contradictions, et une tendance à la recherche de boucs émissaires à des problèmes dont les causes profondes sont pourtant internes : les mêmes raisons qui font la vertu et la cohésion d'une société (cohésion qui lui permet de réunir les ressources nécessaires au développement des grands projets industriels de début de phase) conduisent également aux mouvements moutonniers qui annoncent les excès de fin de phase...
La seconde phase du cycle est une phase d'ajustement, qui s'accompagne d'une baisse des prix et des taux d'intérêts. C'est une phase décrite par Schumpeter "de destruction créatrice", dans laquelle les secteurs surdéveloppés pendant la fin de la phase d'euphorie font place progressivement à des secteurs plus porteurs qui préparent les innovations à venir. Cette phase prépare une nouvelle vague
d'innovations, qui ouvre la voie du cycle suivant.
Sans donner trop d'importance à la précision des dates indiquées ci-dessous, on peut distinguer les cycles suivants, chacun étant lié à des innovations majeures.
Bien sur, la fin d'un cycle n'est jamais datée de façon précise - ainsi les premiers travaux qui ont ouvert la voie au développement du numérique datent de bien avant 1990. De la même façon, la fin d'un cycle coïncide généralement avec le début du suivant sans que personne ne puisse dire précisément où l'un finit et l'autre commence. Malgré ces nécessaires imprécisions, la théorie de Kondratieff permet de donner un éclairage historique à certains phénomènes :
- les conflits de répartition (pouvoir d'achat, protection des rentes,...) ne peuvent trouver de réelle solution que dans le démarrage d'une nouveau cycle, c'est à dire dans l'innovation et la croissance
- le rôle de l'industrie financière est ambivalent, puisqu'elle fournit à la fois les moyens de financement des innovations de première phase, et les mécanismes complexes qui facilitent les excès et qui préparent la fin de cette phase. La crise des subprimes illustre parfaitement ce second rôle, le premier correspondant davantage au rôle du capital risque ou du Nasdaq dans le développement des géants du logiciel et de l'internet américain.
- les politiques de la concurrence, les règles du commerce mondial et le système de protection sociale jouent également un rôle important, notamment dans le cycle actuel. En effet, en phase de "destruction créatrice", les entreprises vont chercher à atteindre une rentabilité qui ne sera plus à la portée de certaines d'entre elles. Pour celà, elles vont rechercher des marges de manoeuvre sur leurs principaux facteurs de production - dont le facteur travail (réduction des hausses de salaire, efforts de productivité,...). Elles le feront d'autant plus qu'elles sont concurrencées par des pays pratiquant des normes sociales nettement moins exigeants (et donc dans lesquels les entreprises trouvent plus facilement la solution à leur difficultés aux détriments des salariés). Par ailleurs la "destruction créatrice" sera d'autant plus difficile et douloureuse que le modèle social protège les statuts plutôt que les personnes (sur cette question essentielle, lire l'article lumineux de John Sutton).
Notons enfin qu'un bon indicateur de cycle à surveiller est le secteur d'embauche des jeunes diplômés. Les fonctions les plus valorisées marquent en effet les priorités d'une époque...
PS : Sur le même sujet, une perspective historique intéressante de Carmen Reinhart.
samedi, mars 08, 2008
Pour gagner en bourse : acheter bas, vendre haut et éviter les frais !
NB : Une actualisation de cette analyse est disponible ici.
Sur le long terme, entend-on parfois, ce sont les actions qui rapportent le plus. C'est globalement vrai, comme le montre le graphique suivant, correspondant à la valeur de 1000 euros investis respectivement :
- courbe rouge : dans le CAC40 via un courtier gratuit (il existe actuellement des low-costs, il est vrai que c'était plus rare il y a 20 ans)
- courbe orange : dans le CAC40, après déduction des frais prélevés par une assurance-vie en action "typique"
- courbe bleue : dans des obligations d'Etat
(Cliquez sur le graphique pour l'agrandir)
Il y a cependant deux bémols. D'abord, les frais de gestion, s'ils sont élevés, viennent réduire le rendement des actions. Sur le graphique suivant, c'est la différence entre la courbe rouge (rendement du CAC 40) et la courbe orange (rendement du CAC 40 moins des frais correspondant au total des frais prélevés sur un contrat d'assurance vie typique).
Ensuite, s'il est vrai (cas 1, courbe pointillée en vert) que celui qui aurait investi dans le CAC 40 fin 1987 et aurait revendu ses actions en mars 2008 aurait multiplié sa mise par 6,3 (contre 3,3 s'il avait choisi les obligations), celui qui aurait acheté au même moment pour revendre en mars 2003 (cas 2, courbe pointillée noire) aurait connu un rendement nettement inférieur, du même ordre que celui qu'il aurait obtenu s'il avait acheté des obligations.
Quant à celui qui aurait acheté des actions en mai 1990 pour revendre en mars 2003 (cas 3, courbe pointillée en rose) aurait augmenté sa mise de 29 % seulement en 13 ans, soit à peine plus que les prix (+26 %) et nettement moins que les obligations (+124 %) !
Si l'on ajoute à celà que de nombreuses études montrent que le gestionnaire moyen ne fait pas mieux AVANT FRAIS que le CAC40, ce qui signifie qu'un certain nombre d'entre eux font moins bien, on peut en déduire quatre conseils d'investissement :
1 - bien choisir le moment d'entrée et de sortie et adaptez votre stratégie en fonction de la durée d'investissement, et du risque que vous pouvez avoir de devoir céder votre portefeuille au plus mauvais moment.
2 - éviter les frais en privilégiant les placements aux frais les plus faibles dans une classe d'actif (c'est sur le long terme un indicateur plus fiable du retour pour l'investisseur que la performance passée)
3 - éviter les stratégies d'investissement complexes : au-delà du fait qu'elles sont généralement associées à des frais élevés, les études montrent généralement qu'elle ne rapportent pas plus, et parfois moins, que les stratégie plus simples (comme suivre le CAC40)
Pour ceux que ces questions intéressent, je recommande l'excellent ouvrage "Le Hasard Sauvage" ("Fooled by randomness" en VO).
Sur le long terme, entend-on parfois, ce sont les actions qui rapportent le plus. C'est globalement vrai, comme le montre le graphique suivant, correspondant à la valeur de 1000 euros investis respectivement :
- courbe rouge : dans le CAC40 via un courtier gratuit (il existe actuellement des low-costs, il est vrai que c'était plus rare il y a 20 ans)
- courbe orange : dans le CAC40, après déduction des frais prélevés par une assurance-vie en action "typique"
- courbe bleue : dans des obligations d'Etat
Il y a cependant deux bémols. D'abord, les frais de gestion, s'ils sont élevés, viennent réduire le rendement des actions. Sur le graphique suivant, c'est la différence entre la courbe rouge (rendement du CAC 40) et la courbe orange (rendement du CAC 40 moins des frais correspondant au total des frais prélevés sur un contrat d'assurance vie typique).
Ensuite, s'il est vrai (cas 1, courbe pointillée en vert) que celui qui aurait investi dans le CAC 40 fin 1987 et aurait revendu ses actions en mars 2008 aurait multiplié sa mise par 6,3 (contre 3,3 s'il avait choisi les obligations), celui qui aurait acheté au même moment pour revendre en mars 2003 (cas 2, courbe pointillée noire) aurait connu un rendement nettement inférieur, du même ordre que celui qu'il aurait obtenu s'il avait acheté des obligations.
Quant à celui qui aurait acheté des actions en mai 1990 pour revendre en mars 2003 (cas 3, courbe pointillée en rose) aurait augmenté sa mise de 29 % seulement en 13 ans, soit à peine plus que les prix (+26 %) et nettement moins que les obligations (+124 %) !
Si l'on ajoute à celà que de nombreuses études montrent que le gestionnaire moyen ne fait pas mieux AVANT FRAIS que le CAC40, ce qui signifie qu'un certain nombre d'entre eux font moins bien, on peut en déduire quatre conseils d'investissement :
1 - bien choisir le moment d'entrée et de sortie et adaptez votre stratégie en fonction de la durée d'investissement, et du risque que vous pouvez avoir de devoir céder votre portefeuille au plus mauvais moment.
2 - éviter les frais en privilégiant les placements aux frais les plus faibles dans une classe d'actif (c'est sur le long terme un indicateur plus fiable du retour pour l'investisseur que la performance passée)
3 - éviter les stratégies d'investissement complexes : au-delà du fait qu'elles sont généralement associées à des frais élevés, les études montrent généralement qu'elle ne rapportent pas plus, et parfois moins, que les stratégie plus simples (comme suivre le CAC40)
Pour ceux que ces questions intéressent, je recommande l'excellent ouvrage "Le Hasard Sauvage" ("Fooled by randomness" en VO).
samedi, mars 01, 2008
La révolution des "usines personnelles"
Chacun ou presque peut aujourd'hui, pour quelques centaines d'euros, disposer à domicile d'équipements permettant de reproduire des textes, des images ou des sons à partir d'informations transmises par internet.
Ce sera bientôt possible pour des objets, grâce à la révolution des "personnal desktop factories" qui s'annonce : une société prévoit la mise sur le marché pour 5000 $ (environ 3300 euros) d'une machine capable de produire un objet en 3D à partir d'un fichier. Des entreprises existent déjà, capable de produire à l'unité et pour des prix relativement réduits des modèles de toute forme décrite dans un fichier informatique payables par internet et livrées par la poste.
Si l'on en juge à ce que peuvent produire des machines professionnelles, sur des matériaux allant du plastique au métal, ces techniques ont de beaux jours devant elles.
Restent donc à développer des technologies capable de véhiculer les deux derniers sens non encore "téléchargeables" : l'odorat et le gout.
Ce sera bientôt possible pour des objets, grâce à la révolution des "personnal desktop factories" qui s'annonce : une société prévoit la mise sur le marché pour 5000 $ (environ 3300 euros) d'une machine capable de produire un objet en 3D à partir d'un fichier. Des entreprises existent déjà, capable de produire à l'unité et pour des prix relativement réduits des modèles de toute forme décrite dans un fichier informatique payables par internet et livrées par la poste.
Si l'on en juge à ce que peuvent produire des machines professionnelles, sur des matériaux allant du plastique au métal, ces techniques ont de beaux jours devant elles.
Restent donc à développer des technologies capable de véhiculer les deux derniers sens non encore "téléchargeables" : l'odorat et le gout.
jeudi, février 28, 2008
Flexicurité, flexisécurité, c'est quoi ?
On a beaucoup parlé du fameux "modèle danois", mélange de flexibilité pour les entreprises et de sécurité pour les salariés. Un rapport récent fait le point sur la réalité dans différents pays européens. Il confirme qu'il n'y a pas de modèle unique, chaque pays concoctant "son" cocktail en la matière.
Or la façon dont une nation réussit à s'adapter tout en sécurisant ceux qui pourraient être menacés par ces adaptation est un facteur crucial de compétitivité - comme John Sutton l'a montré mieux que personne.
Reste à la France trouver le sien, le récent accord conclu entre partenaires sociaux montrant la première étape : réussir à établir une dialogue "gagnant-gagnant" entre salariés et entreprises...
Or la façon dont une nation réussit à s'adapter tout en sécurisant ceux qui pourraient être menacés par ces adaptation est un facteur crucial de compétitivité - comme John Sutton l'a montré mieux que personne.
Reste à la France trouver le sien, le récent accord conclu entre partenaires sociaux montrant la première étape : réussir à établir une dialogue "gagnant-gagnant" entre salariés et entreprises...
mardi, février 12, 2008
Déficit commercial : absurde ou non ?
Nicolas dénonce l'attention donnée au déficit commercial. Entièrement d'accord avec l'idée qu'il n'y aurait aucun sens pour un pays à chercher à avoir le plus gros excédent commercial possible : outre le fait qu'une part croissante de l'économie est composée de services, accumuler des excédents éternels signifierait faire cadeau de nos produits au reste du monde, là où il est surtout intéressant de les échanger (en gros, du champagne contre des IPod).
Faut-il pour autant négliger l'évolution du commerce extérieur ? Pas nécessairement :
le commerce extérieur n'est pas un objectif final de politique économique, mais c'est un indicateur (qui contient du signal et de bruit, mais qui reste un indicateur) de compétitivité. Une dégradation forte, durable, et inverse de celle de nos partenaires cache généralement un problème si ce n'est pas expliqué par autre chose (décalage de cycle de croissance,...).
Autant il est vrai que le mercantilisme n'a aucun sens (chercher à avoir des excédents éternels), autant on ne peut pas ne pas s'interroger sur la situation actuelle, qui est un indicateur de faiblesse économique (dont la seule lecture brute ne suffit pas, mais qui donne une information qu'aucun autre indicateur ne donne sur la facon dont nos produits correspondent à la demande mondiale).
Sur la diagnostic sur ce point et sur les solutions à apporter je recommande un très bon article de John Sutton (cf notamment les graphiques étonnants).
Faut-il pour autant négliger l'évolution du commerce extérieur ? Pas nécessairement :
le commerce extérieur n'est pas un objectif final de politique économique, mais c'est un indicateur (qui contient du signal et de bruit, mais qui reste un indicateur) de compétitivité. Une dégradation forte, durable, et inverse de celle de nos partenaires cache généralement un problème si ce n'est pas expliqué par autre chose (décalage de cycle de croissance,...).
Autant il est vrai que le mercantilisme n'a aucun sens (chercher à avoir des excédents éternels), autant on ne peut pas ne pas s'interroger sur la situation actuelle, qui est un indicateur de faiblesse économique (dont la seule lecture brute ne suffit pas, mais qui donne une information qu'aucun autre indicateur ne donne sur la facon dont nos produits correspondent à la demande mondiale).
Sur la diagnostic sur ce point et sur les solutions à apporter je recommande un très bon article de John Sutton (cf notamment les graphiques étonnants).
jeudi, janvier 31, 2008
Quelques réflexions sur les organisations complexes
L'un des meilleurs livres de management pour certains, The Logic of Failure réussit à expliquer la logique de fonctionnement des grosses organisations.
En le lisant, on comprend bien pourquoi un certain style relationnel (peu d'émotions, grande prudence, grande rigueur...) est souvent le plus adapté au fonctionnement dans les grandes organisations. Pourquoi ? Simplement parce que tout mouvement peut être amplifié 10, 100, 1000 fois par le jeu de la circulation de l'information. Dès lors, le style le plus adapté est celui dans lequel les inflexions données par le chefs sont progressives, peu nombreuses et lisibles. Et effectivement, ce style est dominant (et souvent le mieux adapté) dans les structures matures. On le retrouve chez les "généraux en temps de paix" - comptent davantage les qualités nécessaires au maintien de l'harmonie interne que celle utiles pour remporter une bataille ou imaginer des scenarios improbables.
On pourrait poursuivre en notant qu'en cas de situations extrêmes (retournement, crise majeure,...) d'autres profils émergent - beaucoup moins lisses, et même quelquesfois un peu extravagants. Ce sont des "généraux de temps de guerre". En effet, dans ces situations c'est moins le maintien de l'harmonie qui compte, qu'au contraire le fait de sortir l'organisation de ses habitudes et de son harmonie, d'identifier la "nouvelle harmonie" et d'y entraîner l'organisation. Ainsi dans sa biographie, Jack Welsh explique-t-il qu'il a failli être évincé de la course à la présidence de General Electric, précisément parce qu'il n'était pas consensuel.
En le lisant, on comprend bien pourquoi un certain style relationnel (peu d'émotions, grande prudence, grande rigueur...) est souvent le plus adapté au fonctionnement dans les grandes organisations. Pourquoi ? Simplement parce que tout mouvement peut être amplifié 10, 100, 1000 fois par le jeu de la circulation de l'information. Dès lors, le style le plus adapté est celui dans lequel les inflexions données par le chefs sont progressives, peu nombreuses et lisibles. Et effectivement, ce style est dominant (et souvent le mieux adapté) dans les structures matures. On le retrouve chez les "généraux en temps de paix" - comptent davantage les qualités nécessaires au maintien de l'harmonie interne que celle utiles pour remporter une bataille ou imaginer des scenarios improbables.
On pourrait poursuivre en notant qu'en cas de situations extrêmes (retournement, crise majeure,...) d'autres profils émergent - beaucoup moins lisses, et même quelquesfois un peu extravagants. Ce sont des "généraux de temps de guerre". En effet, dans ces situations c'est moins le maintien de l'harmonie qui compte, qu'au contraire le fait de sortir l'organisation de ses habitudes et de son harmonie, d'identifier la "nouvelle harmonie" et d'y entraîner l'organisation. Ainsi dans sa biographie, Jack Welsh explique-t-il qu'il a failli être évincé de la course à la présidence de General Electric, précisément parce qu'il n'était pas consensuel.
samedi, janvier 26, 2008
Pertes de la Société Générale : quelques réponses
Que s'est-il passé exactement ?
Les Echos publient une note d'explication de la Société Générale qui décrit les faits et kleur enchainement.
Comment une personne isolée a-t-elle pu jouer en bourse un montant peut-être supérieur (certains parlent de 40 mds) à la valeur de la SG ?
Cette opération n'entre évidemment pas dans le cadre d'un fonctionnement normal, et n'a pu intervenir que grâce à des falsifications dans le système de suivi et de limitation des risques. Schématiquement, une banque peut faire des "paris" énormes, dès lors que ces "paris" sont compensés par des paris inverses - de telle sorte que si la banque perd d'un coté, elle gagne de l'autre. Le système de contrôle des risques d'une banque est conçu pour s'assurer de ceci. Le problème à la SG semble avoir été que le trader aurait introduit dans le système de "faux paris" qui donnaient (à tort) l'impression que les positions qu'il prenait sur le marché étaient compensées. Ce qui n'était pas le cas.
Reste que la justice devra préciser les responsabilités du trader, de sa hiérarchie au vu des éléments qui figureront dans le dossier (les contrôles internes étaient-ils assez solides ? les procédures en matière de séparation des activités de trading et de contrôle ou de modification des autorisations d'accès des salariés chargés du contrôle lorsqu'ils rejoignent le trading (ce qui a été le cas de la personne concernée) assez robustes ? A ce stade le "trader isolé" bénéfice de la présomption d'innocence...
Est-il normal qu'un jeune de 31 ans puisse jouer avec des milliards ?
Dans le cas de la SG, il semble que le montant des positions traitées par le trader soient liées à des falsifications comptables. Mais d'une façon plus générale, l'industrie de la finance, qui vise à faciliter l'intermédiation entre ceux qui ont de l'argent à placer, et ceux qui en ont besoin, suppose de faire passer, d'une façon ou d'une autre, beaucoup d'argent par peu de personnes.
Les clients de la société générale sont-ils menacés ?
Non : la perte sera imputée aux actionnaires (essentiellement via une forte réduction des bénéfices, qui se traduira sur le prix de l'action). La banque ayant reconstitué ses fonds propres en faisant appel au marché, la solidité de la banque n'est pas menacée (et d'ailleurs, si elle l'était, il existe en France un système de garantie des dépôts qui protégent l'épargne des clients jusqu'à un plafond de 70.000 euros par personne).
La banque aurait-elle du prendre plus de temps pour solder le problème ?
Certains ont plaidé cette idée. J'ai des doutes dans la mesure où la fraude a certainement eu pour conséquence de porter l'exposition au risque de la Société Générale au-delà de ce qui lui était possible : dès lors, la seule possibilité était de négocier avec le régulateur un délai de retour à la normale, qui ne pouvait certainement pas s'éterniser. Que ce retour rapide à la normale coûte à la banque n'est pas le soucis du régulateur, dès lors que ce coût ne remet pas en cause la pérennité de la banque : raisonner autrement reviendrait à accepter qu'une banque mette en risque sa solvabilité (et il y a des façon profitables de le faire) en sachant qu'elle pourra toujours négocier une façon "peu coûteuse" de revenir à la normale.
Les Echos publient une note d'explication de la Société Générale qui décrit les faits et kleur enchainement.
Comment une personne isolée a-t-elle pu jouer en bourse un montant peut-être supérieur (certains parlent de 40 mds) à la valeur de la SG ?
Cette opération n'entre évidemment pas dans le cadre d'un fonctionnement normal, et n'a pu intervenir que grâce à des falsifications dans le système de suivi et de limitation des risques. Schématiquement, une banque peut faire des "paris" énormes, dès lors que ces "paris" sont compensés par des paris inverses - de telle sorte que si la banque perd d'un coté, elle gagne de l'autre. Le système de contrôle des risques d'une banque est conçu pour s'assurer de ceci. Le problème à la SG semble avoir été que le trader aurait introduit dans le système de "faux paris" qui donnaient (à tort) l'impression que les positions qu'il prenait sur le marché étaient compensées. Ce qui n'était pas le cas.
Reste que la justice devra préciser les responsabilités du trader, de sa hiérarchie au vu des éléments qui figureront dans le dossier (les contrôles internes étaient-ils assez solides ? les procédures en matière de séparation des activités de trading et de contrôle ou de modification des autorisations d'accès des salariés chargés du contrôle lorsqu'ils rejoignent le trading (ce qui a été le cas de la personne concernée) assez robustes ? A ce stade le "trader isolé" bénéfice de la présomption d'innocence...
Est-il normal qu'un jeune de 31 ans puisse jouer avec des milliards ?
Dans le cas de la SG, il semble que le montant des positions traitées par le trader soient liées à des falsifications comptables. Mais d'une façon plus générale, l'industrie de la finance, qui vise à faciliter l'intermédiation entre ceux qui ont de l'argent à placer, et ceux qui en ont besoin, suppose de faire passer, d'une façon ou d'une autre, beaucoup d'argent par peu de personnes.
Les clients de la société générale sont-ils menacés ?
Non : la perte sera imputée aux actionnaires (essentiellement via une forte réduction des bénéfices, qui se traduira sur le prix de l'action). La banque ayant reconstitué ses fonds propres en faisant appel au marché, la solidité de la banque n'est pas menacée (et d'ailleurs, si elle l'était, il existe en France un système de garantie des dépôts qui protégent l'épargne des clients jusqu'à un plafond de 70.000 euros par personne).
La banque aurait-elle du prendre plus de temps pour solder le problème ?
Certains ont plaidé cette idée. J'ai des doutes dans la mesure où la fraude a certainement eu pour conséquence de porter l'exposition au risque de la Société Générale au-delà de ce qui lui était possible : dès lors, la seule possibilité était de négocier avec le régulateur un délai de retour à la normale, qui ne pouvait certainement pas s'éterniser. Que ce retour rapide à la normale coûte à la banque n'est pas le soucis du régulateur, dès lors que ce coût ne remet pas en cause la pérennité de la banque : raisonner autrement reviendrait à accepter qu'une banque mette en risque sa solvabilité (et il y a des façon profitables de le faire) en sachant qu'elle pourra toujours négocier une façon "peu coûteuse" de revenir à la normale.
samedi, janvier 05, 2008
L'ordinateur a 66 euros
L'ordinateur à 66 euros (100 dollars) est un projet intéressant, qui visait à produire en masse un ordinateur portable peu coûteux et adapté aux pays en voie de développement - en quelques sortes la "logan du PC". Il s'agissait en même temps d'appliquer la logique du "logiciel libre" à la production industrielle d'ordinateurs.*
Si l'on en croit The Economist, il semblerait que cette tentative tourne court. Notons quand même que l'intiative OLPC aura certainement stimulé la concurrence, mettant sur le marché des modèles d'ordinateurs portables à un peu plus de 250 euros (l'ASUS eee), prix américain.
Celà dit, d'autres commentateurs donnent une vision plus favorable du projet. A suivre...
Si l'on en croit The Economist, il semblerait que cette tentative tourne court. Notons quand même que l'intiative OLPC aura certainement stimulé la concurrence, mettant sur le marché des modèles d'ordinateurs portables à un peu plus de 250 euros (l'ASUS eee), prix américain.
Celà dit, d'autres commentateurs donnent une vision plus favorable du projet. A suivre...
Juger l'action publique aux résultats ?
On a vu çà et là des débats suite à l'annonce de la mise en place de "tableaux de bord ministériels", précisant les objectifs fixés à chaque ministère.
Notons d'abord que cette proposition est entièrement cohérente avec le politique "de résultats" (revendiquée d'ailleurs à gauche comme à droite), présentée lors de la campagne, qui a sans doute eu un effet significatif sur le résultat des élections.
De quoi s'agit-il ? De mettre en place un système de suivi, certainement pas un système scolaire visant à donner des bons et des mauvais point, mais plutot un "systeme de suivi de la performance" permettant de voir ce qui va, ce qui ne va pas, et de poser des questions quand les objectifs ne sont pas atteints : les moyens sont-ils insuffisants ? Les objectifs doivent ils être adaptés à la conjoncture ? La méthode de mise en oeuvre est-elle à revoir ? Une expertise extérieur doit-elle être utilisée ?
Sur ce sujet il faut éviter les débats trop théoriques, et raisonner de façon pragmatique.
Historiquement, les politiques étaient-ils plus jugés sur les annonces que les résultats ? Reponse, oui.
Est-ce un problème qui mérite d'être changé ? Reponse, oui. La crédibilité des politiques, mais surtout la qualité du service public en dépendent.
Les mesures prises vont-elles dans le bon sens ? Reponse, oui :
- les programmes présidentiels ont été chiffrés (chiffrage qui présente sans doutes des limites, compte tout référentiel comptable, mais qui reste préférable à l'absence de chiffrage)
- les ministres vont être davantage impliqués sur leurs lois de reglement (ie, défendre leurs resultats au regard des critères fixés par la "LOLF", qui associe désormais au montant des crédits accordés par le parlement des indicateurs de résultats)
- ils disposent d'une feuille de route (les lettres du président de la République et du Premier Ministre aux différents ministres)
- la mise en oeuvre de leurs politiques sera jugée sur la base d'objectifs précis, ce qui n'exclut évidemment pas un regard plus large, qui ne manqueront pas de porter les différents contre-pouvoirs (presse, opposition dont les pouvoir sont renforcés notamment à la commission des finances de l'assemblée nationale, Cour des Comptes,...) pour éviter de sombrer dans une "politique du chiffre". Et ce qui ne préjuge pas des solutions à apporter quand les objectifs ne sont pas atteint - cellule de crise, renforcement des moyen, changement de méthode, réappréciation des objectifs...
Est-ce un "déni de démocratie" substituant à la sanction du vote un contrôle "technocratique" ? Certainement pas : les électeurs resteront les seuls juges. Simplement, fait nouveau, ils disposeront d'éléments plus précis pour constituer leur jugemeent : qui peut regretter qu'on lui donne une information supplémentaire ?
Le systeme peut-il etre amelioré en théorie ? Reponse : forcément oui mais il vaut mieux avoir des améliorations réelles tout de suite, qu'une systeme théoriquement parfait, mais jamais : ce qui marche n'est en general pas d'une complexité folle (les systemes de productions à flux tendus de l'automobile tournent en grande partie sur des cartes en carton et des caisses en bois, les systemes informatiques complexes ayant montre leur inadaptation).
Risque-t-on un jour d'avoir le probleme inverse de la situation actuelle (ie, un systeme public trop focalisé sur le résultat chiffré) ? C'est difficile à dire. Mais actuellement le probleme est plutot l'excès inverse !
Reste une question : pourquoi ce débat ? Il marque sans doute les tensions liées au passage d'un monde à un autre : celui où la politique consiste à faire des annonces, et où les contrepouvoir les critiquent, à un monde où la politique consiste à fixer, puis à remplir des objectifs, et où les contrepouvoirs doivent les contre-expertiser. A cet égard, il est amusant de constater davantage de critiques des seconds que des premiers, un peu comme si la remise en cause de leur propre rôle leur posait des difficultés...
Sur ce sujet, je vous invite à lire le très intéressant livre de Michael Barber : Instruction to Deliver
Notons d'abord que cette proposition est entièrement cohérente avec le politique "de résultats" (revendiquée d'ailleurs à gauche comme à droite), présentée lors de la campagne, qui a sans doute eu un effet significatif sur le résultat des élections.
De quoi s'agit-il ? De mettre en place un système de suivi, certainement pas un système scolaire visant à donner des bons et des mauvais point, mais plutot un "systeme de suivi de la performance" permettant de voir ce qui va, ce qui ne va pas, et de poser des questions quand les objectifs ne sont pas atteints : les moyens sont-ils insuffisants ? Les objectifs doivent ils être adaptés à la conjoncture ? La méthode de mise en oeuvre est-elle à revoir ? Une expertise extérieur doit-elle être utilisée ?
Sur ce sujet il faut éviter les débats trop théoriques, et raisonner de façon pragmatique.
Historiquement, les politiques étaient-ils plus jugés sur les annonces que les résultats ? Reponse, oui.
Est-ce un problème qui mérite d'être changé ? Reponse, oui. La crédibilité des politiques, mais surtout la qualité du service public en dépendent.
Les mesures prises vont-elles dans le bon sens ? Reponse, oui :
- les programmes présidentiels ont été chiffrés (chiffrage qui présente sans doutes des limites, compte tout référentiel comptable, mais qui reste préférable à l'absence de chiffrage)
- les ministres vont être davantage impliqués sur leurs lois de reglement (ie, défendre leurs resultats au regard des critères fixés par la "LOLF", qui associe désormais au montant des crédits accordés par le parlement des indicateurs de résultats)
- ils disposent d'une feuille de route (les lettres du président de la République et du Premier Ministre aux différents ministres)
- la mise en oeuvre de leurs politiques sera jugée sur la base d'objectifs précis, ce qui n'exclut évidemment pas un regard plus large, qui ne manqueront pas de porter les différents contre-pouvoirs (presse, opposition dont les pouvoir sont renforcés notamment à la commission des finances de l'assemblée nationale, Cour des Comptes,...) pour éviter de sombrer dans une "politique du chiffre". Et ce qui ne préjuge pas des solutions à apporter quand les objectifs ne sont pas atteint - cellule de crise, renforcement des moyen, changement de méthode, réappréciation des objectifs...
Est-ce un "déni de démocratie" substituant à la sanction du vote un contrôle "technocratique" ? Certainement pas : les électeurs resteront les seuls juges. Simplement, fait nouveau, ils disposeront d'éléments plus précis pour constituer leur jugemeent : qui peut regretter qu'on lui donne une information supplémentaire ?
Le systeme peut-il etre amelioré en théorie ? Reponse : forcément oui mais il vaut mieux avoir des améliorations réelles tout de suite, qu'une systeme théoriquement parfait, mais jamais : ce qui marche n'est en general pas d'une complexité folle (les systemes de productions à flux tendus de l'automobile tournent en grande partie sur des cartes en carton et des caisses en bois, les systemes informatiques complexes ayant montre leur inadaptation).
Risque-t-on un jour d'avoir le probleme inverse de la situation actuelle (ie, un systeme public trop focalisé sur le résultat chiffré) ? C'est difficile à dire. Mais actuellement le probleme est plutot l'excès inverse !
Reste une question : pourquoi ce débat ? Il marque sans doute les tensions liées au passage d'un monde à un autre : celui où la politique consiste à faire des annonces, et où les contrepouvoir les critiquent, à un monde où la politique consiste à fixer, puis à remplir des objectifs, et où les contrepouvoirs doivent les contre-expertiser. A cet égard, il est amusant de constater davantage de critiques des seconds que des premiers, un peu comme si la remise en cause de leur propre rôle leur posait des difficultés...
Sur ce sujet, je vous invite à lire le très intéressant livre de Michael Barber : Instruction to Deliver
Inscription à :
Articles (Atom)