SlideShare a Scribd company logo
1 of 33
Download to read offline
Nの分割と対称式の話
~量子可積分系の導入として~


  神戸大学数学専攻M1
  小鳥遊優葵/中村茂樹
Theme of Presentation
いろんな場面に現れる対称式の性質を紹介
 高校で習った対称式って一体なんの役に立
つの?

可積分系という分野の紹介
 可積分系って何?代数?幾何?解析?
Remark
1. 数学をよく知らない方にも分かるように厳密
   な証明はやらない(時間もない)
2. 物理の予備知識はイラネ(なくても困らない)
3. 数式がいっぱいコレクション
4. #0は自然数, #選択公理ちゃんマジ公理
5. Webでご覧(お聞き?)の方のために
Reference and Quotation
参考文献
  I.G.Macdonald, Symmetric functions and Hall
polynomials, 2nd edition, Oxford University
Press, 1995

引用
Wikipediaさん他
Flowchart of Presentation
自己紹介                 おまけ

まえがき     ←イマココ      あとがき

分野紹介              まとめ的な何か
           本編
Nの分割
            シューア対称式の性質
対称式
What’s Mathematical Physics
 数理物理学は,数学と物理学の境界を成す科学の一分野である.数理
物理学が何から構成されるかについては,いろいろな考え方がある.典型
的な定義は,Journal of Mathematical Physicsで与えているように,「物理学
における問題への数学の応用と,そのような応用と物理学の定式化に適し
た数学的手法の構築」である.
 しかしながら,この定義は,それ自体は特に関連のない抽象的な数学的
事実の証明にも物理学の成果が用いられている現状を反映していない.こ
のような現象は,弦理論の研究が数学の新地平を切り拓きつつある現在,
ますます重要になっている.
 数理物理には,関数解析学/量子力学,幾何学/一般相対性理論,組
み合わせ論/確率論/統計力学などが含まれる.最近では弦理論が,代
数幾何学,トポロジー,複素幾何学などの数学の重要分野と交流を持つよう
になってきている.
What’s Mathematical Physics
    数理物理学
 物理学のバックグラウンドを
 導入とする数学の1分野

     理論物理学
  数学を利用して物理現象を
  解析する物理学の1分野
What’s Integrable System
   In mathematics and physics, there are various distinct notions
that are referred to under the name of integrable systems.
   In the general theory of differential systems, there is
Frobenius integrability, which refers to overdetermined systems.
In the classical theory of Hamiltonian dynamical systems, there is
the notion of Liouville integrability. More generally, in
differentiable dynamical systems integrability relates to the
existence of foliations by invariant submanifolds within the
phase space. Each of these notions involves an application of the
idea of foliations, but they do not coincide. There are also
notions of complete integrability, or exact solvability in the
setting of quantum systems and statistical mechanical models.
What’s Integrable System
 数学や物理学には,可積分系の名が使われているいくつか
の異なった観念が存在する.
 微分方程式系の一般的な理論では,剰決定体系に付随する
フロベニウスの可積分系がある.ハミルトン力学系の古典的理
論では,リウヴィルの可積分系の概念がある.もっと一般的に,
微分可能な力学系の下で,可積分性は位相空間の中に不変な
部分多様体によって葉層の存在に関連している.これらの観念
それぞれは葉層の考えの応用を含むが,しかしながら,ぴった
り合致するものではない.量子力学系や統計力学モデルの環
境にも完全可積分性や厳密可解性の観念がある.
What’s Integrable System

     可積分系
可積分な(微分方程式が解ける)
 力学系モデルを土台にした
     数学の分野
現在では,無限に多くの系が
 あることが知られている
Example of Integrable System
1.   単振動・単振り子
2.   オイラーのコマ
3.   2体問題
4.   戸田格子
5.   量子調和振動子
6.   カロジェロ・サザランド模型

     量子モデルは一般に難しい
 対称性が微分方程式を解くための1つのポイント
Partition of N
定義1
 自然数   に対して,次の条件を満たす数列
             を の分割という.
(1) 各項は自然数で有限個を除いて0である.
(2) 非増加列

(3)   隠し文字
 一般に0である項は省略して表記され,同じ数の
項の数を指数表記して
と表すことが多い.
 自然数 に対して,分割の個数を分割数という.
Partition of N
Young Diagram and Young Tableau
 定義2
    の分割に対し,各項に対応する数だけ正方形
を並べたものをヤング図形といい,その正方形に
数を入れたものをヤング盤という.このとき,
(1) 各行上から下に増加
(2) 各列左から右に増加
(3)        が1つずつ入る
が成り立つ時,標準盤といい,(2)を非減尐にし,
(3)が      が入るとした時,半標準盤という.
 また,ある分割のヤング図形を対角線に対して反
転させた(転置した)図形に対応する分割を元の分
割の共役な分割という.
Young Diagrams
Young Diagrams
Young Tableaux

標準盤 1   2   3   1   2   1   3   1
                3       2       2

                                3

半標準盤    1   1   2   1   1

                    2
Symmetric Polynomial
定義3
 2変数以上の関数空間を考える.この空間の元(関
数)で任意の変数の入れ替えによって不変なものを
対称式または対称関数という.空間が多項式環であ
るとき,対称式のことを対称多項式という.

命題4
  変数有理数係数多項式環          の
元のうち対称多項式全体が成す集合は部分環にな
る.これを 変数有理数係数対称多項式環と呼び,
              で表す.
Symmetric Polynomial
2変数  の場合
基本対称式
冪和対称多項式
その他の対称多項式

その他の対称関数
Elementary Symmetric Polynomial and
  Newtonian Symmetric Polynomial
  以下,特に注意書きがなければ 変数で議論をする

定義5
  個の変数掛けたもの全ての和をとった対称式を基
本対称式と呼ぶ.また,各変数の 乗の全ての和を
とった対称式をニュートン対称多項式または冪和対
称多項式と呼ぶ.

定理6
 全ての対称多項式は基本対称式で書ける.また,
冪和対称多項式でも書ける.
Elementary Symmetric Polynomial and
  Newtonian Symmetric Polynomial
2変数の場合
基本→冪和
冪和→基本
例:



問題7
 対称多項式を簡単に表す方法はないか.(もっとい
えば)対称多項式環のわかりやすい基底は何か.
Monomial Polynomial
定義8
 分割            に対して,単項式
        が考えられる.この単項式の変数
を入れ替えてできる単項式すべての和は対称式にな
り,これを単項対称式と呼ぶ.

定理9
 単項対称式は斉次対称多項式で対称多項式環の
基底となる.故に全ての対称式は単項対称式の1次
結合で書ける.
  次斉次対称式を の分割に対する単項対称式
で表せることを示せば証明できる.
Partition of N
定義1
 自然数   に対して,次の条件を満たす数列
             を の分割という.
(1) 各項は自然数で有限個を除いて0である.
(2) 非増加列

(3)   隠し文字
 一般に0である項は省略して表記され,同じ数の
項の数を指数表記して
と表すことが多い.
 自然数 に対して,分割の個数を分割数という.
Monomial Polynomial
2変数の場合
Monomial Polynomial
例




変数の場合
Schur Polynomial
 シューア対称多項式は可積分系/表現論に現
れる重要な対称多項式である.(その重要性に
ついては今回は触れない)
定義10
 分割 に対して,




とすると,         は対称式でシューア対称多
項式と呼ぶ.
Schur Polynomial
2変数の場合
Schur Polynomial and Kostka Number
命題11
 シューア対称多項式は斉次多項式である.シュー
ア多項式の単項対称式による展開

に現れる係数   をコストカ数と呼び,コストカ数
は自然数である.さらに,シューア多項式もまた,対
称多項式環の基底となる.

定理12(主定理)
 コストカ数    は,分割 のヤング図形に対し,自
然数 を 個書き入れる半標準盤の個数に等しい.
Schur Polynomial and Kostka Number



                        1       1       1   2




                    1       1       1   2       1   3
                    2               3           2
Schur Polynomial and Kostka Number




1 1 1   1 1 2   1 1 2   1 1 3
2       2       3       2
        1 2 3   1 2 4   1 3 4
        4       3       2
Review


・Nの分割をヤング図形を使って表すことができる.

・単項対称式やシューア対称式は対称多項式環の
基底となる.

・シューア対称式と単項対称式の関係を具体的な
形を計算せずに調べることができる.
Next is…


ここまでやってきたシューア対称多項式をうまく使う
と,円周上のN個の自由電子の運動が解ける.

シューアの自然な拡張として,ジャック対称多項式
(パラメータ1個)やマクドナルド対称多項式(パラ
メータ2個)があって,同様に可積分なモデルと密接
な関係がある.

More Related Content

What's hot

20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔Preferred Networks
 
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"Yuta Koreeda
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language ModelsDeep Learning JP
 
第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化
第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化
第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化The Whole Brain Architecture Initiative
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII
 
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...Deep Learning JP
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative ModelingDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
Interspeech2022 参加報告
Interspeech2022 参加報告Interspeech2022 参加報告
Interspeech2022 参加報告Yuki Saito
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークNU_I_TODALAB
 
一般線形モデル
一般線形モデル一般線形モデル
一般線形モデルMatsuiRyo
 
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...Daichi Kitamura
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKSDeep Learning JP
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
論文紹介 Amortized bayesian meta learning
論文紹介 Amortized bayesian meta learning論文紹介 Amortized bayesian meta learning
論文紹介 Amortized bayesian meta learningXiangze
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence LearningDeep Learning JP
 

What's hot (20)

20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
 
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
 
第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化
第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化
第7回WBAシンポジウム:予測符号化モデルとしての 深層予測学習とロボット知能化
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
Interspeech2022 参加報告
Interspeech2022 参加報告Interspeech2022 参加報告
Interspeech2022 参加報告
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head Decoderネットワーク
 
一般線形モデル
一般線形モデル一般線形モデル
一般線形モデル
 
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
論文紹介 Amortized bayesian meta learning
論文紹介 Amortized bayesian meta learning論文紹介 Amortized bayesian meta learning
論文紹介 Amortized bayesian meta learning
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
 

Kansaimath_seminar