論考記事AI時代のパーソナライズ神話と意思決定倫理

ホーム > 論考記事 > 論考記事AI時代のパーソナライズ神話と意思決定倫理

要旨

パーソナルトレーニングの領域において、「AIが最適な答えを出してくれる」という語りは甘美に響きます。しかし、そこで言われる「最適」は単なる計算結果を超えた、何を優先し、何を諦めるかという価値判断を含んだ重み付けです。

現場の意思決定において、センサーが拾う数値はあくまで素材であり、本質はそれを生活の文脈へ落とし込むことにあります。本稿はAIの有用性を前提としています。AIが描く地図は強力だと認めたうえで、その地図がいつの間にか「決定」へと化ける瞬間に立ち止まろうとするものです。AI時代に必要なのは、結論を外部へ委譲する巧妙さ以上に、出力を現実の行為へ翻訳し直す責任なのです。

本稿の射程

本稿が想定する読者は、健康なクライアントを対象とするパーソナルトレーナー、および自身の身体運用に関心を持つトレーニーです。

本稿は特定の疾患に対する医療的ガイドラインとは異なり、現場における意思決定の設計思想を扱います。診断や治療を目的とせず、「最適化」という言葉が運用される際に省略されがちな、意思決定の主体と責任の所在について論じます。

はじめに

「AIが、骨格や過去のデータから最適な答えを出し、そのとおりにメニューを提案します」——この言い回しに惹かれるのは自然なことです。膨大なデータが背後にあるというだけで、迷いが消える気がしますし、正しさがどこかで担保され、最短距離が保証されるように感じられるからです。

しかし、ここで一度だけ問いを戻してみたいのです。最適とは、誰にとっての最適なのでしょうか。何を増やし、何を減らし、何を守り、何を捨てる最適なのでしょうか。トレーニングの現場は、目的地が一つに固定されたカーナビの世界とは異なります。そこには価値判断があり、観測できるものと観測できないものの差があり、そしてたった一回の「今日」があります。

本稿が問うのは、AIそのものではなく、提案がいつの間にか決定へと読み替えられ、計算がいつの間にか価値判断を代行し、数値がいつの間にか身体感覚を押し潰すという、その転倒です。この転倒が平然と起きていることに、強い課題意識を持っています。本稿では、AIが描く地図と身体感覚というコンパスの関係を整理し、テクノロジー時代の現場指導者が引き受けるべき役割を、意思決定の倫理として言語化します。

第1章 「最適」の正体とトレードオフ

「AIが最適なプログラムを提案します」——このフレーズを聞くと、無意識のうちに、誰もが納得するたった一つの正解があり、AIがそこへの最短ルートを計算してくれるのだと期待してしまいます。しかし、トレーニングにおける「最適」とは、目的地が固定された経路探索とは異なり、互いに反発し合う複数の目的に重みを付け、どこで折り合いを付けるかを決める調停にほかならないのです。

現場で日々ぶつかるのは、怪我のリスクをできる限り下げたいという欲求、身体能力を伸ばしたいという欲求、見た目を変えたいという欲求、生活の中で続けたいという欲求が、しばしば同時に走り出すという事実です。これらは一緒に語られやすいものの、トレードオフの関係になり得ます。審美性を押し上げようとして深いストレッチ局面を多用すれば、関節の負担は増えやすくなります。機能性のために高出力や複雑な動作へ寄せれば、安定性や安全性の面で支払うものが出てきます。生理学的には正しそうに見える減量メニューでも、生活文脈に刺さった瞬間に精神的負担が跳ね上がり、継続が壊れることがあるのです。ある目的にとっての最適は、別の目的にとっての最悪になり得ます。

ここで問われるのは、どれを優先し、どれを犠牲として受け入れるかという重み付けです。これはデータの問題以上に、価値判断の問題です。多少リスクを取ってでも期限までに見た目を変えたいのか、変化が遅くてもいいから痛みのない生活を守りたいのか。こうした対立軸は正誤ではなく選好の違いであり、現場の最適化はこの選好を明らかにしてはじめて成立します。

重要なのは、重み付けは計算の結果以上に、主体が引き受ける選択だという点です。AIが出すのは、選択を前提にした提案に過ぎません。にもかかわらず、重み付けの不在を埋めるように「AIが決めた最適」を受け取ってしまうと、最終判断が外部へ大きく委ねられることになります。ここで本稿が問題とするのは人格以上に、価値判断が事実の顔をして通過してしまう、意思決定の回路設計なのです。

第2章 設計補助としてのAIの肯定

まず強調したいのは、本稿はAIやウェアラブルデバイスの利用を積極的に肯定するという点です。これらは現場にとって強力な味方になり得るものであり、その点は高く評価しています。

プログラム設計には変数が多すぎます。解剖学的な適合性、過去の負荷、回復、分割法、仕事の都合、これまでの成功と失敗——人間の頭にとって、こうした要素を同時に抱え続けるのは困難です。AIの強みは、膨大な選択肢の探索と、条件制約を満たすかどうかの整合性チェックにあります。人間がゼロから組み上げると時間がかかる案を、AIは瞬時に複数提示できます。ここには現実的な価値があるのです。ゼロから作る重い認知負荷が軽くなれば、人間は目の前の個人に合わせて微調整する余力を取り戻せます。

さらに、体調管理を「記憶と気分」から「記録と推移」へ移す力も大きいと言えます。睡眠、安静時心拍、HRV、週間ボリューム——こうした推移を自動で可視化し、長期の傾向として見せることは、人間の努力だけでは代替しにくい機能です。

迷走を減らす“補助線”として、AIやデバイスがインフラ的に使われ始めているのは確かです。ただし、それは正解や安全を保証するものというよりは、あくまで意思決定の材料を増やす道具です。

だからこそ、本稿ではAIを「地図」と位置づけます。地図は地形を示し、現在地を見失いにくくしてくれます。大まかなルートを提案し、迷走を減らしてくれます。しかし、地図と決定は別次元の存在です。地図を持っていることと、今日その道を歩けることとは別の話です。地図の価値を認めるからこそ、地図が決定へすり替わる瞬間に敏感でありたいのです。

第3章 最大公約数と平均化圧力

AIによるプログラム生成は、個人データに合わせて高度にカスタマイズされているように見えます。しかし、その深部には汎用性を重視する設計に由来する傾向が潜んでいます。商用のフィットネスAIは不特定多数を相手にするため、一般に、事故やクレームの発生確率を抑える方向へ設計・運用が最適化されやすい——その結果として、無難な提案に寄ることがあります。アルゴリズムには、個別の微細なニュアンスを捨象し、一般化へ向かう特性があるからです。数学者キャシー・オニールも指摘するように、これはシステムの構造的な性質として理解できるものです[1]

ここで起きるのは、言葉を飾らずとも言える現象です。外れ値の角が丸められ、一般解へ収束する圧力が生まれます。これを「平均化圧力」と呼ぶことにします。誰がやってもそこそこ効果が出て、大きな怪我はしにくい——そうした提案に寄るほど、サービスは安定します。しかし同時に、尖った個人の条件は薄まっていくのです。

現場で本当に価値があるのは、平均的な人間に対する指導以上に、個別の文脈への対応です。現実には、生活背景も身体の癖もメンタリティも、平均値どおりに揃った人など存在しないのです。統計的には効きそうでも、この骨格では関節が悲鳴を上げる。一般論としては休むべきでも、この人は軽く動いた方が戻る。こうした例外は、特別な出来事ではなく日常です。パーソナライズの本質は、一般論を起点としつつ、例外処理できる形で運用することにあります。

AIが得意なのはパターンの適用であり、現場が必要とするのはパターンをそのまま貼り付けない胆力です。AIの出力は叩き台として優秀です。だからこそ、まず標準を見て、そのうえで「クライアントの個性に合わせるためにどこを変えるか」を人間が決める。この順番が重要です。これが崩れたとき、パーソナライズは神話に変わってしまいます。

第4章 観測の非対称性と身体感覚

なぜAIやデバイスは「その人の今日」を完全に捉えきれないのでしょうか。理由は単純です。センサーは外部から測れるものを測りますが、現場が知りたいのは身体の内側にある状態だからです。疲労、集中、痛みの予兆、迷い、焦り——こうした潜在状態は直接には測れません。現場は、それを兆候から推定しているのです。

近年、心拍数や睡眠スコアのような数値を手軽に参照できるようになりました。これは進歩です。しかし現場では、数値に従属する転倒も起きています。気分は良いのにスコアが悪いから「今日は駄目に違いない」と決めてしまう。節々が痛いのに回復スコアが高いから「まだいけるはずだ」と無理をする。ここで起きているのは、数値が身体を説明するのではなく、数値が身体の読み方を支配し始めるという倒立です。

こうした“判断の揺れ(ノイズ)”は、能力や誠実さとは別の次元で生じうる欠陥として整理されており[2]、デバイスの数値がその揺れを減らす場合もあれば、逆に増幅する場合もあります。

デジタルヘルスやAI活用が進むほど、“数値や提案がどのように受け取られ、行動や自己理解をどう変えるか”という運用上の問題が前景化します[3]。偽の睡眠フィードバックが認知機能や自覚的疲労に影響し得るという報告もあります[4]。測定そのものは中立に見えても、その解釈次第で行動が変わり、結果として状態の自己評価やパフォーマンスに影響が及ぶことがあるのです。

そして、現場の状態推定はバーベルを握ってから始まるわけではありません。入室した瞬間、あるいはそれ以前から始まっています。仕事の繁忙期、天候、生活リズム、表情、声、会話のテンポ。ウォームアップ中の呼吸、ラックアップの手つき、切り返しの間。これらはノイズとして捨てられやすいものですが、身体にとっては変調の兆しであることがあります。

こうした微細な違和感を「勘」という言葉で片付けるのは早計です。一見すると非科学的に見えるこの「身体のざわめき」こそが、実は合理的な判断を支える重要な入力情報である——そのような指摘が、脳科学や認知科学の領域からもなされています。たとえば、ダマシオが示した議論が示唆的なのは、感情や身体感覚が意思決定から排除されるべき邪魔者ではなく、むしろ意思決定を成立させる構成要素になり得るという点です[5]。ここでの参照は因果の証明ではありません。現場で起きている「気づき」を言語化するための概念装置として置いています。

データを「地図」、感覚を「コンパス」と呼ぶのは、このためです。地図は大局を示し、コンパスは今この瞬間の進行可否を決めます。地図だけで歩けば足元の穴に落ち、コンパスだけで歩けば方向を見失います。問題は二者択一ではなく、両者の対話によって意思決定の解像度を上げることなのです。

第5章 翻訳責任としての専門家の役割

AIが地図を描き、デバイスが座標を示す時代に、指導者の役割は消えるのでしょうか。実態は逆だと考えます。役割は、その質を変え、むしろ高度化していくのです。なぜなら、運用の倫理とは、正しさの議論以前に、誰が最終判断を引き受けるのかを明確にする作法だからです。AIが出力するのは提案であり、その提案が現実の行為へ変換される瞬間に、責任は人間側に発生します。この一点が曖昧なまま「最適化」だけが独り歩きすると、現場は静かに壊れていきます。ここが省略される場面を日常的に見過ごしてしまうことに、苛立ちを覚えずにはいられません。

ここから先は、特定の店舗やクライアントの実話とは異なり、議論の骨格を露出させるために、現場で起こり得る判断の構造を一つの架空の場面として再構成します。AIがどこで意思決定へ侵入してくるのかを示すための思考実験です。

ある日、クライアントがスマートフォンを差し出します。そこには、トレーニング支援アプリの推奨が表示されています。前回の達成ログとウェアラブルの回復スコアを根拠に、次回負荷の上積みが提案されています。理屈は整って見えますし、数字も並んでいます。ここで起きやすい転倒は、この提案がいつの間にか「やるべきこと」へ昇格してしまうことです。提案が決定へと読み替えられる瞬間です。

ここで熟練したトレーナーが見ているのは、画面ではありません。ウォームアップの段階で、いつもより浅い呼気、切り返しの僅かな遅れ、会話の反応テンポの鈍さ、視線の落ち着かなさが重なって見えています。単発の兆候なら気のせいで終わります。しかし、複数の兆候が同時に立ち上がるとき、指導者はそれを「今日のリスク」として束ねて扱います。ここで行っているのは、万能の直感の誇示ではなく、見落とすと事故へ繋がり得る種類のズレを、反復の中で識別しているだけです。こうした「言葉にはできないが、確かに機能している識別能力」について、マイケル・ポランニーは「暗黙知」という概念を用いて、知識の重要な側面であると論じました[6]。ここでの参照は因果の証明ではなく、現場の判断が単なる気分や思いつきではなく、言語化しにくいが確かに鍛えられる識別の作法に支えられていることを示すための概念装置です。

トレーナーは、提案どおりの上積みは実行しません。重量を据え置きにし、課題の主役をコントロールへ移します。セッション後、クライアントがぽつりと言います。実は直前に仕事で大きなトラブルがあり、頭が散っていた、と。もし提案どおりに上げていたら怖かった、と。もちろん反事実の比較はできません。上げても問題が起きなかった可能性はあります。ここで因果を断定するつもりはありません。ただ、少なくとも言えるのは、画面に出ない行間を読み、今日の一回を安全側に寄せるという判断が成立していたという事実です。

この場面が示すのは、専門家の役割が「知識の提供」から「解釈の引き受け」へ移っていることです。AIやアプリの出力をそのまま右から左へ流すだけなら、そこに専門家は不要です。人間が介在する意味は、提案を生活文脈と身体の兆候と価値判断に通し、今日の行為へ翻訳し直すことにあります。AIの提案は、正しさの顔をして近づいてきます。しかし、正しさの顔をしたまま責任の所在を曖昧にします。だからこそ、「誰が決めるのか」を前面へ引き戻す必要があるのです。

本稿ではこれを「翻訳責任」と呼びます。格好を付けるための言葉ではありません。現場で実際に起きている作業に、逃げない名前を付けるためです。地図は描けます。しかし歩くのは人間です。歩くという行為に責任が発生する以上、最終判断は人間の側に残り続けるのです。

アプリやAIの出力は“提案”であり、採用するかどうかの最終判断は、トレーニー本人と(指導を受ける場合は)担当トレーナーが共同で引き受ける——この前提を省略しないことが重要です。

結語

テクノロジーは迷いを減らしてくれます。しかし、それは思考の免除とは区別して扱われるべきものです。最適化という心地よい言葉に身を預け、価値判断や身体感覚の更新をブラックボックスへ押し込めてしまうと、主体性は痩せていきます。地図を持たずに歩くのが無謀であるのと同じように、地図だけを見て足元の感触を無視するのもまた、遭難への近道です。

現場のパーソナライズとは、誰かが計算した一般解に従うこと以上に、AIが描く地図を参照しながら、それでも最後は自分の感覚と生活文脈を含めて今日の一回を決める営みです。データか感覚かという二項対立ではなく、両者の対話で意思決定の精度を上げる。その手間を惜しまないことが、AI時代の指導者と実践者の誠実さだと考えます。

地図を描くのはAIの役割であっても、その道を歩き、風を感じ、進むか止まるかを人間が自ら決めること。その最終判断を引き受ける責任こそが、テクノロジー時代における指導者の核心的価値となります。

参考文献

[1] O’Neil C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown; 2016. URL: https://www.penguinrandomhouse.com/books/241363/weapons-of-math-destruction-by-cathy-oneil/

[2] Kahneman D, Sibony O, Sunstein CR. Noise: A Flaw in Human Judgment. Little, Brown Spark; 2021. URL: https://readnoise.com/

[3] Topol EJ. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books; 2019. URL: https://www.basicbooks.com/titles/eric-topol-2/deep-medicine/9781541644632/

[4] Draganich C, Erdal K. Placebo sleep affects cognitive functioning. J Exp Psychol Learn Mem Cogn. 2014;40(3):857-864. DOI: 10.1037/a0035546. PMID: 24417326. URL: https://pubmed.ncbi.nlm.nih.gov/24417326/

[5] Damasio AR. The somatic marker hypothesis and the possible functions of the prefrontal cortex. Philos Trans R Soc Lond B Biol Sci. 1996;351(1346):1413-1420. DOI: 10.1098/rstb.1996.0125. PMID: 8941953. URL: https://pubmed.ncbi.nlm.nih.gov/8941953/

[6] Polanyi M. The Tacit Dimension. University of Chicago Press; 2009. URL: https://press.uchicago.edu/ucp/books/book/chicago/T/bo6035368.html

付記

本稿は、パーソナルトレーニングジムPriGymにおける指導指針および意思決定の設計思想を言語化したものです。特定の疾患に対する医学的助言や診断を目的とするものではなく、健康なクライアントを対象とした指導現場における論点整理を主眼としています。

末岡 啓吾

末岡 啓吾

パーソナルトレーニングジム「PriGym」代表トレーナー。
博士(理学)・NSCA認定トレーナー・パワーリフティング元日本記録保持者。
科学と実践の両軸で、一人ひとりの成長を支えます。