ToDo:
https://twitter.com/Science_Release/status/1523521026621345792
おもしろ
量子的効果がどのくらいマクロな挙動に影響与えるのかっての(意識とか)、僕が生きてる間に判明するといいなあ
(22:17)
他にも義理の姉が来たり、ちょっとおでかけしたり
GW にしては活動をしたという気がしている
(14:12)
半年前くらいに買った。在宅勤務なので NVIDIA GPU が載ってるノート、という縛りがなくなったので、 ryzen のやつにしてみた
1kg 以下のノートとしてはびっくりするくらいコンパイルとかが速く終わる。デスクトップも ryzen にしてみたいなーと思うところ。 NVIDIA GPU と両立できるのかよく知らんが……
(20:56)
https://twitter.com/tanakmura/status/1514658717484326915
銀英伝面白かった、というのを思い出した
民主主義はコストもかかるし決定遅いし衆愚になるし、というか主人公が属してる民主主義国は大変クソみたいな政治家が牛耳っていて、もう一人の主人公は敵国の完璧な独裁者で、そんな状況でも民主主義が良いんだよ、というような話
いや、別に民主主義が良いという話ではなかったと思うけど
あと前もどこかに書いたけど、会社は、雇われる側が独裁される対象を選べるのと、雇う側が独裁する対象を選べるのとで、まあ違いがあるように思う
(20:18)
なんというか、そのうち list でも tuple でも ndarray でも良いみたいな感じになったあげく、そのくらいなら別に良いことも多いんだが、 data iterator みたいなのが来ると終わりですね、みたいなことになりがち。そしてそういう関数に str を渡したら破滅する
すごい generic なので dict でも list でも、それらの tuple でも受けれますよみたいな関数を作ると、まあそれも大混乱でたいてい考え忘れがある
duck typing そのものが悪いという気はしてないのだけど、関数 bar が foo を list を引数に呼んでるとして、新しく baz が str で foo を呼んでしまったエラーを見た時、「baz が str を foo に渡したのが悪い」と考えるより「foo が str もサポートしてないのがいけないし、サポートすると便利に違いない」と考える人が多い気がしていて、この現象にある程度機械的に待ったをかける手段として、 structual|nominal subtyping が良いみたいな気分になったりする
一方で reflection (具体的には isinstance と hasattr) が無い duck typing な言語があれば、それは割と機能する?みたいな気もする。つまり静的型は必須、と思ってたんだけど、動的型を問いあわせる手段が無ければ動的型でも割とコード書けたりするのかな?と思ったという話
(03:24)
すぐわからんくなる
linear(x,w): Gemm(x(ND), w.T(1D or 2D)) addmm(b,x,w,alpha,beta): Gemm(b(0D or 1D or 2D), x(2D), w(2D)) matmul(x,w): Gemm(x(ND), w(ND)) bmm(x,w): Gemm(x(ND), w(ND)) mm(x,w): Gemm(x(2D), w(2D))
(09:34)
コロナ以来、ほぼ完璧に在宅勤務となり、もともと高かった QoL が限界突破して、すんごいラクになった。ただかわりに失われたものとして家族以外との人間関係がある
もともとそれほど寂しがりやとかでもないし、ちょくちょく喋る友達とかはともかく、親友的なやつは一人もいない。でまあそのちょくちょく話す友人、みたいなのとコロナ以降ほとんど話をしてないみたいな状態になっている。家では年中喋ってるし、会社の同僚とはオンラインでしょっちゅう話すので、さみしいとかそういうことは特に無いし、まあこれはこれで特に問題ないしいっか、みたいに思っていた
もともと妻が「そういうつながりは大事にしろ」と言ってくれてて、まあそうやな、と思いつつも特に何もしてなかった。ただ最近、訃報を1年遅れくらいで知る、ということが起きて、これはやっぱ良くないな、と。今から15年から10年くらい前にかなり頻繁に飲んだりしてた人で、いろいろ教えてもらったしいろいろお世話になったのに、不義理なことをしてしまった、としんみり
というわけで、なんかちょっとずつでも、最近会ってない人たちと会う、みたいなことをしていきたいなあ、などと思っている
(13:17)
いろいろ気になるが、やっぱソフト屋としては transformer engine 気になるよなあ
https://blogs.nvidia.com/blog/2022/03/22/h100-transformer-engine/
精度の選択を dynamic にやるってのは、発想になかった
(16:52)
https://twitter.com/sudamin/status/1509738269189492736
えっ 64bit 版、どうやって、と思ったらエイプリルフールだった。騙された
(14:17)
https://rabspice.hatenablog.com/entry/2022/03/28/000158
「強いエンジニアは結局休日に勉強してる」が話題になっているぽいけど、途中のグラフが気になった
「学習効率が勉強時間に比例」「学習成果は勉強時間に対して指数関数」と書いてあるけど、前者が真なら2次関数な気がする。まあたぶん非線型、くらいの意図だったのかな、と推測
僕は2次項の強い3次関数くらいな気がしている。イメージとしては
力(t') = 学習効率(t') * t' t'(t) = モチベ(t) * t
みたいな。学習効率は元記事でも言われているようにサチるとは思うけど、まあ多くの区間で線型ぽい気がする。ただなんか学習効率自体を効率良く増やすテク、みたいなのもあるかもなので、3次ぽさがある気もしないでもない
t' ば消費時間 t に対する実効時間で t' <= t 。人間やる気がないと時間をムダにするので、 t より大きくならないとはいえ、重要。学習効率に入れて考える人もいそうだけど、僕はそれはしっくりこなくて、学習効率が十分に高くなってるドメインでもやる気が起きなくて無の時間を過ごす、ということはよくある
さて仕事の成果は力学通り
仕事(t') = 力(t') * t'
で良さそうで、もう1次増えるから、なんか成果は結構差が出る、という話なのかなと
モチベってこう、増やす方法は人それぞれありそうだけど、仕事や学習成果を出すことで増やす、ってのはよくありそうで、例えばテストで良い点取るとやる気が出て好循環に入る、とかある。となるとモチベが仕事や力の関数になってそうで、そうなると最初の指数関数というのも、あながちあるような気もしてくる。がまあ、モチベ(t) はしょせん 1.0 以下の数字なので、成果に対してずっと比例し続けることはなさそうで、指数増加している空間は少なそう
ところで、勉強ってすればするほど知らないことが増えることが良く知られているので、知識の空間ってのは結構高次な空間という気がする。どうなんだろう
(11:42)
に限らないけど、固体液体気体の三相だと習ったと思うんだけど、なんだかたくさんあるんやでーと教わって面白かった
で
https://twitter.com/Science_Release/status/1505837846045020160
はそれがなんか増えたって話らしいんだけど、なんか水みたいな身近なものでもこういうふうに無尽蔵に種類が増えてくのは、なんか面白いなーと
それがどういう影響があるもんなのかとか知らんけど。。
(18:41)
前 | 2024年 11月 |
次 | ||||
日 | 月 | 火 | 水 | 木 | 金 | 土 |
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
全てリンクフリーです。 コード片は自由に使用していただいて構いません。 その他のものはGPL扱いであればあらゆる使用に関して文句は言いません。 なにかあれば下記メールアドレスへ。