Phase 3

Construire la Machine

Comment choisir 286 essais parmi 17 955 choix possibles ?

01

Le Problème

La conception prévoit 300 essais. Mais lesquels 300 ?

Les investissements vont de 1 à 10 jetons. Les probabilités de 5% à 95%. Les résultats de 0 à 39 jetons. L'espace factoriel complet contient 17 955 essais possibles.

Le défi :

Tous les essais ne sont pas également informatifs. Certains nous en disent beaucoup sur les paramètres de la Théorie des Perspectives. D'autres sont redondants ou non informatifs. Nous avons besoin d'une méthode systématique pour sélectionner les meilleurs.

Étape 1 : Générer l'Espace d'Essais

D'abord, créer tous les essais possibles. Pour chaque niveau d'investissement (1–10 jetons), générer toutes les combinaisons de résultats et de probabilités.

Plan Factoriel Complet

Investissements : 1–10 jetons

Résultats : Pertes et gains nets

Probabilités : 5% à 95%

Total Généré

17 955

essais possibles

Étape 2 : Créer l'Espace de Paramètres

Définir l'espace de paramètres 4D complet pour la Théorie des Perspectives. Pour chaque paramètre, créer une grille fine de valeurs possibles.

Grilles de Paramètres (50 valeurs chacune)

α 0,5 à 1,0
γ⁺ 0,4 à 3,0
δ⁻ 0,4 à 3,0
λ 1,0 à 6,0

Combinaisons

6,25 Millions

Tâches Parallèles

250

Étape 3 : Calculer les Équivalents Certains

Pour chaque combinaison de paramètres et chaque essai, calculer l'équivalent certain (CE)—la valeur qui rend quelqu'un indifférent entre accepter et refuser le pari.

Implémentation de la Théorie des Perspectives

v(x) = x^α pour les gains

v(x) = -λ × |x|^α pour les pertes

w(p) = p^γ / (p^γ + (1-p)^γ)^(1/γ)

CE = v(gain) × w(p_gain) + v(loss) × w(p_loss)

Calculs

112 Milliards

6,25M params × 17 955 essais

Temps d'exécution

~63 Heures

Temps CPU (250 tâches parallèles)

Étape 4 : Filtrer vers les Essais Discriminants

D'abord, éliminer les essais qui ne varient pas avec les valeurs de paramètres. Si tout le monde accepte un essai (ou tout le monde le refuse) indépendamment de ses paramètres, il ne fournit aucune information.

1 Franchissement de seuil (CE traverse 0)
2 Plage suffisante (Plage ≥ 0,5)
3 Éviter le consensus (< 95% d'accord)

Résultats du Filtrage

17,955 7,169

Essais discriminants retenus

Étape 5 : Calculer les Dérivées

L'Information de Fisher quantifie combien un essai vous en dit sur un paramètre. Elle est basée sur les dérivées : de combien l'équivalent certain change-t-il quand vous modifiez α, λ, γ⁺, or δ⁻ ?

179 Trillions

Dérivées calculées par différences centrales

15 000

Heures-CPU sur cluster HPC

Étape 6 : Sélection Séquentielle D-optimale

Maintenant vient l'optimisation. Nous voulons des essais qui maximisent l'information tout en maintenant l'équilibre entre les quatre paramètres.

L'Algorithme

1

Calculer la Matrice d'Information de Fisher pour chaque candidat

2

Ajouter l'essai qui maximise le déterminant (information globale)

3

Assurer la contrainte d'équilibre (ratio diagonal min/max ≥ 0,05)

4

Répéter jusqu'à atteindre la cible de 300 essais

Sélection Finale

286

Essais Optimaux

Le Résultat : Estimations de Précision

La Matrice d'Information de Fisher nous dit avec quelle précision nous pouvons estimer chaque paramètre. La précision est mesurée par les erreurs standard (SE)—plus petit est mieux.

α (Sensibilité)

0,0147

Excellent

γ⁺ (Gain)

0,0296

Très Bien

δ⁻ (Perte)

0,0538

Bien

λ (Aversion aux Pertes)

0,0761

Acceptable

Validation: Parameter Recovery

La théorie c'est une chose. La pratique en est une autre. Nous avons validé la conception avec 502 simulations utilisant l'échantillonnage Hypercube Latin et du bruit ajouté.

Taux de Convergence

99,6%

500/502 réussis

Qualité de Récupération

Modérée

Adéquat pour la comparaison intra-sujets

Ensuite : Le Rendre Réel

Les mathématiques sont faites. Les essais sont sélectionnés. La conception est validée. Maintenant vient la partie passionnante : construire l'expérience réelle.

Explorer la Phase 4 : Implémentation