Construire la Machine
Comment choisir 286 essais parmi 17 955 choix possibles ?
Le Problème
La conception prévoit 300 essais. Mais lesquels 300 ?
Les investissements vont de 1 à 10 jetons. Les probabilités de 5% à 95%. Les résultats de 0 à 39 jetons. L'espace factoriel complet contient 17 955 essais possibles.
Le défi :
Tous les essais ne sont pas également informatifs. Certains nous en disent beaucoup sur les paramètres de la Théorie des Perspectives. D'autres sont redondants ou non informatifs. Nous avons besoin d'une méthode systématique pour sélectionner les meilleurs.
Étape 1 : Générer l'Espace d'Essais
D'abord, créer tous les essais possibles. Pour chaque niveau d'investissement (1–10 jetons), générer toutes les combinaisons de résultats et de probabilités.
Plan Factoriel Complet
Investissements : 1–10 jetons
Résultats : Pertes et gains nets
Probabilités : 5% à 95%
Total Généré
17 955
essais possibles
Étape 2 : Créer l'Espace de Paramètres
Définir l'espace de paramètres 4D complet pour la Théorie des Perspectives. Pour chaque paramètre, créer une grille fine de valeurs possibles.
Grilles de Paramètres (50 valeurs chacune)
Combinaisons
6,25 Millions
Tâches Parallèles
250
Étape 3 : Calculer les Équivalents Certains
Pour chaque combinaison de paramètres et chaque essai, calculer l'équivalent certain (CE)—la valeur qui rend quelqu'un indifférent entre accepter et refuser le pari.
Implémentation de la Théorie des Perspectives
v(x) = x^α pour les gains
v(x) = -λ × |x|^α pour les pertes
w(p) = p^γ / (p^γ + (1-p)^γ)^(1/γ)
CE = v(gain) × w(p_gain) + v(loss) × w(p_loss)
Calculs
112 Milliards
6,25M params × 17 955 essais
Temps d'exécution
~63 Heures
Temps CPU (250 tâches parallèles)
Étape 4 : Filtrer vers les Essais Discriminants
D'abord, éliminer les essais qui ne varient pas avec les valeurs de paramètres. Si tout le monde accepte un essai (ou tout le monde le refuse) indépendamment de ses paramètres, il ne fournit aucune information.
Résultats du Filtrage
Essais discriminants retenus
Étape 5 : Calculer les Dérivées
L'Information de Fisher quantifie combien un essai vous en dit sur un paramètre. Elle est basée sur les dérivées : de combien l'équivalent certain change-t-il quand vous modifiez α, λ, γ⁺, or δ⁻ ?
179 Trillions
Dérivées calculées par différences centrales
15 000
Heures-CPU sur cluster HPC
Étape 6 : Sélection Séquentielle D-optimale
Maintenant vient l'optimisation. Nous voulons des essais qui maximisent l'information tout en maintenant l'équilibre entre les quatre paramètres.
L'Algorithme
Calculer la Matrice d'Information de Fisher pour chaque candidat
Ajouter l'essai qui maximise le déterminant (information globale)
Assurer la contrainte d'équilibre (ratio diagonal min/max ≥ 0,05)
Répéter jusqu'à atteindre la cible de 300 essais
Sélection Finale
286
Essais Optimaux
Le Résultat : Estimations de Précision
La Matrice d'Information de Fisher nous dit avec quelle précision nous pouvons estimer chaque paramètre. La précision est mesurée par les erreurs standard (SE)—plus petit est mieux.
α (Sensibilité)
0,0147
Excellent
γ⁺ (Gain)
0,0296
Très Bien
δ⁻ (Perte)
0,0538
Bien
λ (Aversion aux Pertes)
0,0761
Acceptable
Validation: Parameter Recovery
La théorie c'est une chose. La pratique en est une autre. Nous avons validé la conception avec 502 simulations utilisant l'échantillonnage Hypercube Latin et du bruit ajouté.
Taux de Convergence
99,6%
500/502 réussis
Qualité de Récupération
Modérée
Adéquat pour la comparaison intra-sujets
Ensuite : Le Rendre Réel
Les mathématiques sont faites. Les essais sont sélectionnés. La conception est validée. Maintenant vient la partie passionnante : construire l'expérience réelle.
Explorer la Phase 4 : Implémentation