日常あれこれ

物理に限らず,いろんなことを綴るページです。 個人の妄想、妄言が含まれるかもしれませんが、あしからず。 年ごとにまとめてみました。

2023年前半

2023 6/24 何もしない時間

 読みたい本がたくさんあったり、やってみたいことがたくさんあって、どれから手を付けようかと考えているうちに時間が過ぎるので、とりあえず思いついたことからやっていくことにした。その日の気分で決める。そんな風に過ごしていると毎日いつも何かをしているということに気が付いた。 別に悪いことではないが、なんとなくやることに時間が支配されていて、疲れている感じもあった。 そこで、あえて何もしない時間を楽しむというのもいいかもと思った。 何もしない時間というものを日常の中に積極的に取り入れてみると、頭の中が整理される感じで気持ちに余裕ができるし、作業に戻った時にスムーズに進む気がする。 何もしない時間では、本当に何もしない。音楽を聴くこともしないし、スマホをいじることもしない。頭に余計な情報を入れない。ぼーっと考え事をしたりするのが良い。 そうして気持ちに余裕ができると、またいろいろなことがやりたくなるし、こうやって記事を書こうという気にもなってくる。 生活にハリが出るので、あえて何もしない「暇」な時間を作るのが個人的におすすめだ。忙しい時にこそ効果が出る。


2023 6/11 量子力学について

 量子力学について、ぼんやりと考えてみた。 量子力学が古典力学と大きく違うところは、古典力学ではある時刻での物理量の値は確実に1つに決まるが、量子力学では確率的にしかわからないことがある、という点である。 この違いはどこから来るのだろうか。 量子力学での物理量が確率的にしか求まらないのは、量子力学では系の状態が確率的な重ね合わせになりうるからだ。 この重ね合わせというものは波の性質である(例えば水面を伝わる波が互いにぶつかった時のイメージ)。 古典力学の時は粒子の運動を考えるときは粒子的な性質だけを考えればよかった。 しかし量子力学では粒子は粒と波の両方の性質を持つのでここが本質的な違いといえそうだ。  話は変わるが教科書で最初に量子力学に移行する際には、粒子の座標と運動量に正準交換関係を課す正準量子化を行うことが一般的な流れだが、 これは座標と運動量の間の不確定原理に対応している。 座標の測定誤差を少なくしようとすると運動量の測定誤差が発散し、逆に運動量の誤差を小さくしようとすると座標の誤差が発散するというアレである。 この不確定性原理は一見すると実に奇妙だが、もともとは単なる波の性質であって、波束の座標と波数の間に成り立つ関係である。 不確定性原理を波の言葉で言い換えると、波束の座標を一点に決めようとすると無限に多くの平面波を重ね合わせる必要があるので波数が1つに決まらなくなり、 逆に波数を一つに決めようとするとそれは一つの平面波に対応するので波束としての座標が表せなくなる、という感じである。 この波数と粒子の運動量が比例するというアインシュタインの関係式を単なる波束に成り立つ関係式に適用したものが不確定性原理となる。 結局は粒子が粒の性質と波の性質を持つという事実こそが重要だという結論になった(ここではアインシュタインの関係式がそれを表す)。 そう思うとアインシュタインの関係式って、左辺が粒に固有の量である運動量を表し、右辺が波に固有の量である波数を表すということで、革命的な感じがした。 いつも安直に正準交換関係を課すけれど、その理由をさかのぼれば、理論に波と粒子の二重性を許したことになるのだと、なんだか納得した。


2023 5/6 自分の書いたコード

 連休だったので日常の雑記ページを更新してみた。webページの作成とか更新って、一か所直すと他の部分も直さないといけなかったり気になってきたりして意外と時間がかかる。まぁ、なんというか、そういう構成で書いてしまっているのも問題がありますけどね。以前に自分が書いたコードを見返すと、冗長な部分が多かったりして、いかんなぁ、と思いつつも若干の成長を感じました。雨なのでジメジメする。今年もいろいろやりたいことがあるので優先順位をつけて消化していこう。


2023 3/13 E資格合格

 少しずつ機械学習の勉強を進めて、E資格(機械学習、ディープラーニングの資格)に合格することができた。 仕事でディープラーニングを使うので勉強したが、物理でもうまく使えれば面白そう。


2023 1/28 E資格の勉強

 勉強するときに言葉の定義があいまいだと混乱するので、せめてその分野内では統一してほしいと思うことがあった。
 機械学習の勉強をしていると、学習の効率化をするためにデータを整理する、という場面がよくある。 その方法の一つにバッチ正規化という方法があって、学習に用いるデータをいくつかのグループに分けて学習させる際に、 データグループごとに学習結果の差が大きくならないような処理を施すらしい。 そこで行われる計算は出力結果の平均が0、分散が1になるようにやるのだけれど、これって実は標準化という名前の付いた処理らしい。 本当の正規化は出力を最小値0、最大値1になるようにすることなので、うっかり騙されそうになった。 バッチ”正規化”という名前がついているの実際に行っている処理は標準化という。。。 字面に惑わされず言葉の意味をしっかり把握しておかないといけませんね。 それにしても、バッチ正規化じゃなくてバッチ標準化という名前にしてほしかったな。


2023 1/04 機械学習の勉強

 機械学習の勉強中。。。 場の量子論も本を一冊決めて少しずつ進めていこうと思う。 最近、量子コンピュータについても勉強してまとめたいと考えている。 やりたいことがどんどん増えてきてたまっているので、時間をやりくりする方法を工夫せねば。


戻る | 次へ
ページTOPに戻る