Théorie du chaos et marchés financiers

Le prix évoluerait vers un autre niveau de stabilité

5.3. Théorie du chaos et marchés financiers

5.3.1. Les cours de bourses comme objet fractal.

Dans le mouvement brownien avec une distribution de probabilité normale que nous avons analysé plus haut, on a vu que grâce au théorème central limite, on a pu définir une invariance d’échelle au niveau de la distribution. En effet, une distribution normale reste normale quelque soit l’échantillon que l’on prend. Dans le cas d’un mouvement brownien, les accroissements le mouvement brownien suivent une loi d’échelle proportionnelle à image115.
Donc si on considère X comme étant le cours d’un instrument financier, la distribution de probabilité reste insensible à une variation d’échelle temporelle, il n’y a que son

Continuer la lecture

Bases théoriques de la théorie du chaos

l'évolution de la fonction selon que le paramètre µ

5.2. Bases théoriques de la théorie du chaos
Dans ce paragraphe, nous allons détailler les outils mathématiques dont nous aurons besoin pour élaborer nos modèles.

5.2.1. La dimension fractale ou dimension de Hausdorff.

On peut définir la dimension d’un objet mathématique comme étant le nombre de degré de liberté que possède cet objet, c’est à dire le nombre de références nécessaires pour décrire la position d’un point appartenant à cet objet. Une droite ne possède qu’un seul degré de liberté, un plan en possède deux, etc. Ainsi, un cercle ou un carré a une dimension 1 puisqu’ils ne possèdent qu’un seul degré de liberté.
Lorsqu’on parle de fractale, la notion de dimension change considérablement. Comment situer un point sur une figure qui contient une courbe de longueur infinie dans un espace fini. En fait, la dimension des fractales n’est pas un nombre entier comme 1 ou 2 mais un nombre réel.
L’idée est la suivante : prenons une droite rectiligne. Nous savons que sa dimension est 1. Maintenant, si nous transformons cette droite comme ceci :
Bases théoriques de la théorie du chaos
On voit que

Continuer la lecture

Théorie du chaos, Qu’est-ce que la théorie du chaos?

Le tapis de Sierpinski

Théorie du chaos – 5° Partie :

5.1. Introduction

La théorie du chaos date des années 1970 et est née des travaux du météorologue Edward Lorenz. Celui-ci cherchait à modéliser des écoulements météorologiques grâce à un ordinateur.

Il établit un système de trois équations différentielles qui lui permettait de faire des simulations de courants aériens.

A l’époque, encore influencé par la mécanique déterministe newtonienne, on pensait que les phénomènes météos pouvaient se décrire à l’aide d’équations différentielles comme on pouvait le faire avec le mouvement des planètes ou des objets et ainsi pouvoir prévoir la météo de façon certaine voire même contrôler le temps.

Lorenz s’est rendu compte qu’il n’en était rien.

Cette théorie révolutionnaire a essaimé à travers toutes les autres sciences pour donner naissance à des dizaines de modèles dans des domaines aussi variés que la météorologie, l’écologie, la médecine, la physique, l’aérodynamique, l’astronomie, etc.

5.1.1. Qu’est-ce que la théorie du chaos?

La théorie du chaos est une discipline qui « s’attache principalement à la description de systèmes à petit nombre de degrés de liberté, relativement simple à définir, mais dont la dynamique nous apparaît comme très désordonnée ».

Ce sont des systèmes déterministes qui

Continuer la lecture

Modèle de valorisation d’action sur base du mouvement brownien

Les vagues d'Elliott

  4.3. Construction d’un modèle de valorisation d’action sur base du mouvement brownien 4.3.1. Qu’est-ce que le mouvement brownien? Le mouvement brownien a été décrit la première fois en 1827 par le botaniste écossais Robert Brown. La petite histoire nous dit qu’il étudiait le mouvement complètement aléatoire de minuscules grains de pollen plongés dans de … Continuer la lecture

Mécanique quantique et mouvement brownien

Le chat de Schrödinger

Mécanique quantique et mouvement brownien – 4° Partie :

4.1. Introduction

La mécanique quantique est née d’expériences ayant mis la théorie classique de la matière de Rutherford en défaut. Diverses expériences ont montré les contradictions de cette théorie, comme la démonstration de la nature ondulatoire de la matière. Selon le principe de falsification, les scientifiques ont donc dû introduire une nouvelle théorie plus générale : la mécanique quantique.
L’avènement en 1922 de la mécanique quantique fût une révolution dans la manière de fonctionner des sciences. Tout d’un coup, nous passions d’une façon déterministe d’envisager le monde à une façon probabiliste.
Plus troublant encore, contrairement à ce qui est demandé à toute science par le courant positiviste, la mécanique quantique n’a pas pour objet d’expliquer les phénomènes qu’elle étudie mais uniquement de les mesurer et de les prévoir. Pour mieux comprendre cette affirmation, il faut définir ce que l’on entend par « expliquer ». Jusque là, en science, expliquer signifiait donner une théorie qui permettait de relier un évènement à ses causes de façon univoque. En mécanique quantique, ce n’est pas le cas pour deux raisons :
– Il n’y a pas de lien causal d’un évènement à un autre mais un lien probabiliste. C’est à dire qu’à partir d’une cause, il peut y

Continuer la lecture

Les méthodes déterministes d'évaluation d'actions

3° Partie : Les méthodes d’évaluation déterministes
3.1. Introduction
C’est à Laplace que nous devons la première définition du déterminisme : « Nous devons envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. »
L’ensemble des modèles scientifiques est bâti sur cette doctrine jusqu’à la première moitié du 20° siècle. Selon le déterminisme scientifique, si on connaît l’ensemble des conditions initiales d’un système ainsi que sa modélisation complète, on doit être capable de déterminer entièrement l’état du système à n’importe quel moment au cours du temps. En poussant le déterminisme encore plus loin, le processus est réversible : si on connaît la situation du système au temps t et sa modélisation complète, on peut en déduire sa situation dans le passé et dans le futur. Le temps n’est donc pas un facteur déterminant dans le

Continuer la lecture

L’épistémologie : déf., principes et 4 courants de pensée

L'épistémologie : déf., principes et 4 courants de pensée

2° Partie : Une approche épistémologique

2.1. Introduction : l’approche épistémologique

L’approche épistémologique des méthodologies génératrices de modèles en sciences et en économie va nous permettre de comprendre comment ces modèles se construisent et en quoi ces méthodologies sont semblables et suivent une même évolution.

L’épistémologie est plutôt une théorie philosophique mais elle a pour objet de comprendre le fonctionnement de la science, comment l’Homme arrive à élaborer des modèles scientifiques.

Si l’épisté. reste certes du domaine philosophique, nous pouvons néanmoins aller y puiser les principes de raisonnements qui sous-tendent la créativité scientifique et mathématique. C’est à travers ces principes que nous allons tenter de décoder le fonctionnement de la création de modèles économiques et scientifiques. Nous allons dresser une parallèle entre les évolutions dans ces différents domaines.

Etant donné que l’épistémologie est une branche féconde à part entière de la philosophie, nous n’allons pas nous étendre trop sur les nombreuses discussions des divers courants, sur l’utilisation de certains termes ou sur des nuances concernant certains points particuliers.

Qu’est ce que l’épistémologie ?

Nous allons nous servir de l’épisté., en tant que méthode d’élaboration de la connaissance, comme d’un outil qui servira à mieux comprendre la façon de procéder en économie par rapport aux sciences de la vie.

Continuer la lecture

L'importance des modèles de valorisation des actions

1.4. L’importance des modèles de valorisation
On a vu à travers les mécanismes des différentes crises que les modèles d’évaluation des instruments financiers avaient une importance stratégique mais que ces modèles pouvaient se révéler limités voire dangereux dans le mesure où on avait tendance à trop s’y fier. Ensuite, ils perdaient de leur validité lors de certains événements pouvant entraîner de véritables catastrophes boursières.
Le Krach de 1987 peut s’expliquer par une faillite de certains modèles. Tout d’abord, aucun économiste de l’époque ne jugeait possible une chute de 22.6% du Dow Jones, la chute du jeudi noir de 1928 n’étant « que » de 12.5%. Ensuite les modèles de couverture de portefeuille par des options automatisés démultiplièrent les effets de la chute. Depuis cet événement, les bourses suspendent le cours des valeurs qui montent ou baissent trop vite afin d’éviter le même effet d’emballement.
La crise de la bulle internet a aussi pour cause une faillite des modèles utilisés. On a largement surévalué la valeur des entreprises technologiques. Les modèles de valorisation des startups se basaient en partie sur l’expérience de Microsoft qui avait réussi à imposer un (quasi-)monopole dans sa branche. Dès lors, les modèles de valorisation sur lesquels on se basait prenaient en compte la possibilité que ces startups puissent aussi imposer un monopole dans leur branche. On pensait que les clients resteraient captifs de leurs fournisseurs de services sur internet. C’était sans compter sur la

Continuer la lecture

Bâle II et les modèles de valorisation des actions

1.3. Bâle II 4
Le comité de Bâle regroupe les gouverneurs des banques centrales des pays suivants : Allemagne, Angleterre, Belgique, Canada, Espagne, France, Italie, Japon, Luxembourg, Pays-Bas, Suède, Suisse et USA. Le but de ce comité est d’émettre des recommandations visant à améliorer la sécurité du système financier en général, libre aux pays d’inscrire ces recommandations dans leur droit national. Ces recommandations sont centrées sur la sécurisation du système bancaire, sur ses pratiques et sur le contrôle prudentiel. Le premier accord de Bâle date de 1988.
Le point le plus remarquable est la mise au point d’un ratio de solvabilité appelé ratio de Cooke dans les accords de Bâle 1, qui furent affinés dans les accords de Bâle 2 sous le nom d’accord de Mc Donough. L’idée de ce ratio est de fixer le rapport entre les crédits accordés et les fonds propres de la banque afin d’assurer la solvabilité de celle-ci en cas de problèmes.
Le ratio de Cooke, élaboré pour Bâle 1, oblige les banques à maintenir un ratio de 8% de fonds propres par rapport à ses crédits. Ce ratio est assez brut et ne tiens pas compte des risques liés aux différents crédits et à la façon de couvrir ces risques par la banque. L’accord défini, en outre, ce qui est considéré comme fonds propres et comme crédits. Par fonds propres, on entend le capital et certaines dettes. Par crédits, on entend la totalité des engagements de crédits qui peuvent être sous-pondérés en fonction de la contrepartie (particulier, banque, état).
En

Continuer la lecture

Les mécanismes des dernières crises boursières

crise pétrolière

Les mécanismes des dernières crises boursières

De la nécessité des modèles de valorisation -1° Partie:

1.1. Introduction

De nos jours, les crises financières se succèdent de plus en plus vite mettant à mal les modèles économiques de la veille. On assiste donc à une évolution de ces modèles pour prendre en compte les nouvelles donnes économiques.
Selon l’article de Christian Walter 2, la crise des subprimes est, au delà, d’une crise financière, une crise du modèle probabiliste qui appréhende le monde économique actuel.
Ces modèles se retrouvent à tous les niveaux de la vie économique : gestion, risk management, organisation, normes juridiques, comptabilité, etc.
Mais on commence à se rendre compte que ces modèles probabilistes ne sont plus adaptés au fonctionnement actuel de l’économie car ils n’intègrent pas les phénomènes d’emballement ou de crise. Ils se basent sur une distribution probabiliste relativement homogène et ignorent la psychologie du marché qui peut s’emballer par des phénomènes auto-entretenus.
On se rend souvent compte après une crise que les modèles utilisés se sont retrouvés obsolètes à un moment donné.
Il est donc essentiel de réévaluer régulièrement la conformité des modèles utilisés pour ne pas se laisser rattraper par les crises boursières. En fait, beaucoup de modèles ont une validité de leurs paramètres assez courte dans le temps et il

Continuer la lecture

Modèles des sciences de la vie et de valorisation d’actions

Comparaison épistémologique entre les modèles issus des sciences de la vie et les modèles de valorisation d'actions

Comparaison épistémologique entre les modèles issus des sciences de la vie et les modèles de valorisation d’actions

Institut catholique des hautes études commerciales
Haute Ecole Groupe ICHEC – ISC Saint Louis – ISFSC

ichec

Enseignement supérieur de type long de niveau universitaire

Mémoire présenté pour l’obtention du grade de Master en sciences commercialesComparaison épistémologique entre les modèles issus des sciences de la vie et les modèles de valorisation d'actionsComparaison épistémologique entre les modèles issus des sciences de la vie et les modèles de valorisation d’actions

Par
Emmanuel de Coninck

Promoteur :
Monsieur Francis Vaguener

Année académique
2007 – 2008

Boulevard Brand Whitlock 2 – 1150 Bruxelles

Remerciements :

– A mon épouse qui m’a soutenu pendant ces années passées à l’Ichec
– A monsieur Vaguener pour ses excellents conseils et ses cours qui m’ont fait aimer les statistiques.

Introduction générale :

Ce mémoire a pour but de suivre l’évolution des méthodes d’évaluation d’actions en parallèle avec l’évolution des sciences.

En effet, les économistes ont toujours eu besoin de chiffrer la valeur de celles-ci.

On remarque que les modèles d’évaluation suivent l’évolution de la modélisation scientifique au fur et à mesure des nouvelles découvertes tant du point de vue scientifique que du point de vue mathématique.

L’évaluation de la valeur d’une entreprise est une nécessité constante, notamment lors de toute une série d’événements un achat, une vente, ou la réalisation emprunts, etc.

A tout moment, plusieurs intervenants économiques tels que un banquier, un investisseur ou un actionnaire souhaiteraient connaître la valeur de l’entreprise avec la plus grande précision possible afin d’envisager une décision d’investissement, la réalisation d’un emprunt, une cession ou une acquisition d’actions, etc.

On se rend bien compte que les méthodologies, qui permettent de chiffrer la valeur des entreprises, ont une importance capitale et influencent directement les décisions des intervenants et les montants qu’ils décideront d’engager.

La motivation de ce mémoire est essentiellement la recherche d’un parallélisme entre la physique et la finance. L’idée centrale est la bonne compréhension des modèles de valorisation d’une entreprise.

Continuer la lecture

L’avenir des métavers passe par la convergence des réseaux sociaux

L’avenir des métavers passe par la convergence des réseaux sociaux

III. L’avenir des métavers passe par la convergence des réseaux sociaux à travers les identités numériques

A. Freins technologiques et développement des avatars

Un des freins au développement de Second Life (que nous avons souligné dans la partie 1 de ce mémoire) réside dans sa technologie « client serveur » qui ne permet pas aux logiciels standard de la 3D de s’intégrer à une technologie propriétaire.

Toutefois, l’esprit de Linden Lab, étant depuis la création du monde virtuel, celui de l’ouverture et de la transparence de sa technologie (Open source), on peut espérer que la communauté des résidents « builders » (c’est ainsi que l’on nomme ceux qui co-construisent l’environnement sur la grid de Second Life) trouveront comment faire communiquer les technologies comme ils ont su brancher Second Life sur le téléphone mobile.

L’avenir des métavers se situe plus sûrement dans le développement des identités actives des internautes qui peuplent les réseaux sociaux qu’ils soient ou 2D (sur des pages web) ou en 3 D (en immersion).

Gartner prédisait il y a un an que 80% des internautes disposeront d’un avatar virtuel en 2011 ; nous l’avons vu, la tendance est déjà bien amorcée, comme le prouve le mapping de KZero Research qui inclue dans sa carte des métavers la dimension temporelle de l’influence de ces mondes synthétiques, en fonction de leur date de création (Annexe 3).

B. Interopérabilité, identités numériques et réputation

Ce qui est à prévoir- le numéro d’avril 2008 de

Continuer la lecture

Société de l’instant et changement de mentalité, Second Life

Société de l’instant et changement de mentalité, Second Life

II. Société de l’instant et changement de mentalité – Le XXI e siècle sera virtuel ou ne sera pas, mais il sera surtout communautaire !

A. La tyrannie du temps réel

A travers l’exemple de Second Life, nous avons vu que le monde de la fiction, comme celui du film Minority Report est entré dans la réalité du métavers. La 3D de ces mondes synchrones construit une société de l’instant qui privilégie l’expérience et l’émotion au détriment de la réflexion qui s’inscrit dans une autre temporalité.

Si l’écrit est toujours présent à travers le tchat (par essence écrit), son caractère instantané marque une rupture avec la société de l’imprimerie de Nuremberg de l’ère de la rationalité. Nous y avons reconnu là une tyrannie de l’instant dans laquelle la littéraire que nous sommes n’a pas toujours été à l’aise.

Il n’est pas étonnant que ces mondes fassent peur tant ils bouleversent notre façon de penser, de communiquer et nos processus de décision. Les entreprises ne sont pas prêtes au bouleversement de la virtualité en temps réel, pas plus qu’elles ne sont prêtes aux pratiques du Web 2.0 qui ont rendus possibles les métavers.

B. Changement de paradigme : le temps de l’intelligence collective.

1. Du vertical à l’horizontalité

En effet, cela supposerait un changement dans l’organisation managériale encore trop verticale de nos entreprises. L’action dans l’instant est-il compatible avec les multiples validations inhérentes à l’exercice de l’autorité

Continuer la lecture

Marketing de niche ou énorme potentiel de consommation sur Internet ?

C. Marketing de niche ou énorme potentiel de consommation sur Internet ?

Si comme nous le pensons, un métavers est peuplé non de joueurs mais de consommateurs en puissance, comment une marque pourrait-elle bouder une place commerciale sous prétexte que celle-ci serait le lieu d’un marketing de niche ? Ne risquent- elles pas de passer à côté des consommateurs de demain ? La croissance de la consommation actuelle sur Internet invite à penser que les pratiques évolueront sur les métavers de la même façon que sur les pages web.

Rappelons qu’en 2007, 86% de la population Internet mondiale139 a acheté en ligne, ce qui représente 40% d’acheteurs sur le web supplémentaires en deux ans.

Ces derniers achètent principalement des livres (41% des internautes), et de la musique pour 19% des Internautes. L’élément déclencheur d’achat est avant tout la fidélité : 60% des internautes se décident à acheter parce qu’ils sont sur un site déjà connu (eBay et Amazon briguent les deux premières places du top 10 des sites de vente en ligne). La publicité télé/print ne suscite que 11% des achats.

Les Français se sont montrés d’ardents consommateurs de Second Life. La raison est sans doute à chercher dans la démocratisation informatique dans les foyers français. En décembre 2007, 90% des foyers équipés étaient aussi connectés au web, soit un foyer sur deux connecté à Internet. Parmi eux, on compte 80% d’équipement chez les 25-34 ans. Cette tranche d’âge est sans conteste deux fois plus active en

Continuer la lecture

Après le temps de l’euphorie, chronique d’une mort annoncée

Après le temps de l’euphorie, chronique d’une mort annoncée

B. Après le temps de l’euphorie, chronique d’une mort annoncée

1. Désertion des marques de Second Life

La démission de Philip Rosedale, fondateur de Linden Lab, de son poste de PDG en mars 2008, a suscité de nombreuses spéculations intellectuelles sur l’hypothétique fin de Second Life134 tant dans la presse que sur les blogs.

Quand on l’interroge sur la raison de ce départ, Philip Rosedale parle au contraire d’évolution et de croissance de Linden Lab. L’entreprise se trouverait actuellement dans une phase où son développement nécessite d’avantage la direction d’un gestionnaire que d’un visionnaire, qu’il est lui-même et qu’il avait l’intention de rester en retrouvant sa liberté.

Avec un chiffre d’affaires supérieur à 20 millions de dollars135, Linden Lab ne semble pas moribonde mais la presse a parlé d’essoufflement de Second Life. Cet essoufflement était prévisible après un état de grâce qui a duré quatre ans (de 2003 à 2007).

Les polémiques ont ralenti puis inversé le mouvement de rush des marques qui avaient investi Second Life en pensant, par là, bénéficier de l’aura d’innovation du métavers (ce que nous avons appelé la stratégie de pionniers des marques).

L’interdiction des jeux et des banques en ligne l’été 2007, la multiplication des sims sur le métavers, à caractère pornographique, le piratage et la contrefaçon d’avatars ou d’objets virtuels ont eu tôt fait de dissuader les sociétés, qui aujourd’hui préfèrent ne pas ou ne plus être associées à cet univers.

Continuer la lecture