13:17:47
2025-01-28 07:03:09 🌌の投稿 mimiduku@misskey-square.net
icon

このアカウントは、notestockで公開設定になっていません。

14:08:27
2025-01-28 14:06:13 おさの投稿 osapon@mstdn.nere9.help
icon

エクスプローラーのツリー側って、操作をミスる(指がピクッとなって不意のドラッグとかが発生する)と、意図してないフォルダ移動が発生してあらゆるものを破壊する経験があって、なるべく操作しない癖が付いてしまっている。

14:11:23
icon

マウスで色々操作できると便利だろうといって機能を付けるが、意外なところがインタラクティブになっても使う人があまりいない上に、誤操作のリスクが上がってかえって不便になるという例はある

16:20:51
icon

うちは著作権について云々したりするつもりはない。蒸留元がなんか言ってくるかも知れんがそれは知らん、自己解決してくれ。みたいなスタンスなのかも…?

RE:
https://fedibird.com/users/mutaguchi/statuses/113904549890212563

16:26:48
icon

NVIDIAの株価云々、優位いつまでも続くわけではないだろうなと思っていた人の一部があらかじめ想定していた「売るタイミング」に引っかっただけかと思う
計算量の需要バブルが弾けるのか、それとも投機的でない実際の需要が伸びてきて安全に着地するのかは誰にもわからないのではないか

16:31:54
icon

1. オープン人間にオープン教育を施してオープンアノテーターをビルドし、オープンガイドラインに基づきオープンデータセットを作成します

RE:
https://misskey.flowers/notes/a3jpynv835zg0vyg

16:35:10
icon

ここの投稿において私はALTテキスト(画像の代替テキスト)を付けるのを忘れがちではあるが、そもそもの投稿テキストで状況についての長い説明があるのでALTがついていないことで特に不便はないと思う

16:43:08
icon

私がALTをつける時はキャプション的に、画像を見ても何に注目すべきかわからない人の説明にもなるようにしていることが多い。(本来のアクセシビリティ目的としては説明が長すぎるようには思うが、本文とは別にわざわざ伝えられる説明が「ビルの写真」のように簡潔にすぎても逆に邪魔にしかならないと思う)

16:52:47
icon

@redshift まず線形代数、次に確率連鎖過程(e.g. マルコフ連鎖)、そして「アテンション」による(多元的)履歴効果のモデル化、これがあれば十分―現時点の技術を十分効果的に用いたという意味において―精神障害をモデル化できると思う。

17:51:59
icon

@redshift 元々文生成の分野はn-gramモデルから発展しました。これは、直前のn単語を見ると、次に来る単語が確率的にわかるというモデルです。この確率の計算は、基本的には単に出現頻度を数えるというものなので、あまりnを大きくするとデータがスカスカになってうまくいきません。

それから隠れマルコフモデルというのが出てきて、「実際には目に見えない状態」が確率的に遷移していて、そこから表面的な単語が生まれるというモデルが作られました。例えば「名詞を出しやすい状態」「格助詞を出しやすい状態」などがあり、これらが確率的に遷移するという考え方です。これにn-gramモデルを組み合わせることでより文法的な内容が出やすくなるという仕掛けです。

これらに共通する考え方は、過去の状態によって、現在出てくる言葉の確率が変化するというものです。モデルが参照する過去の状態が限られていれば、文法的な正しさくらいしか反映できないのですが、文単位を超え、より長い過去の状態を反映できるようにすれば、話題の一貫性とか、論理的な因果関係、あるいは心理状態も反映されるようになると考えました。

先ほど言ったように、nが大きくなるとデータがスカスカになってしまうので、隠れ状態のうち重要な部分だけを「長期保存」するしくみ(LSTM)や、重要な単語を選んで、状態ベクトルを足し合わせる方式(アテンション)が考案されました。

このアテンションという仕組みは、画像解析で入力に応じて不要なデータ部分を認識しゼロをかけることで性能が向上するというような目的で導入され、翻訳や文生成において翻訳の原文や以前の単語のうち注目すべきものにフィルタリングするとうまくいくと発見され転用されました。この中で、アテンションの当て方を複数用意し状態を結合させるとより性能が向上することがわかり、機械翻訳やAI対話モデルに登場以来今まで使われています。

こういうわけで、もともとアテンションは神経の注目機構にインスピレーションを受けて作られた確率モデルではありますが、系列データに対するアテンションモデルは、コイントスのような「過去を忘れる」タイプでない確率的現象をモデリングするための柔軟なしくみとして、「何にでも役に立つ」といえます。(ただ、モデルがあまりにも柔軟すぎるため、心理学理論への応用を意図する場合は、パラメーターの数や範囲にかなりの制約をかけることで、パラメーターの意味を説明可能にする必要があると思います。)

18:15:58
icon

@astro_ray Yes, though (awareness of) actual users of different accessibility would be the most important part of culture, I think.

By the way, non Japanese native users like you and Japanese speakers living outside Japan are visible in the timeline and it is clear that the policy to make the site registerable from anywhere with or without VPNs gives benefits to some real users. I weigh such an awareness very much as a community experience.

18:27:25
icon

300年くらい経ち、公式のコンテンツが散逸し、その教義を様々に解釈した二次創作集が編纂され、布教に身を捧げた人々の記録や、推しに救われた人々の伝記が集まると、伝統宗教の風格が出てくるな

20:25:25
icon

@tsukatan@misskey.io 大震災や空襲で人知れず燃えちゃったものもかなりありそうですしね…。

21:36:55
icon

@redshift 歪んだ人格を「再現」することはできると思うのですけど、深層ニューラルネットワークモデルは莫大な変数をもち、粘土のように何でも作れてしまうので、(古典物理学やレヴィ・ストロースの親族構造のような)概念的・構造的なモデルというよりも、観察者の主観が反映された記述的な塑像のようになってしまいます。そうすると、その再現というのが科学的なプロセスなのかというのが問題になります。

例えば、「正常な」言語生成モデルに対して最小限の操作を加えると「歪んだスキーマ」に基づく考えを出力してしまうから、その「最小限の操作」が「異常」の原因であると論じることはできます。

ただ、無差別なテキストから学習した言語生成モデルを出発点とする場合、当然精神病の患者自身が作成した文章や、その病状を記述した報告、あるいはそれを模擬した創作物などからも学習しています。従って、「操作」によって病状が出現したのではなく、単にモデルが「暗記」した病状のテキストの特徴を再生しているだけというのが妥当な評価になりそうです。一方で、精神病に関連する記述を注意深く取り除いた学習コーパスで「クリーン」なモデルを作成したあと、操作により「病状」を導くというのは、実際には質が低い結果に終わると予想します…。言語生成モデルは深いレベルで人間の思考を模擬しているわけではなく、学習外のテキストの特徴を再現する能力は、極めて限定的だからです。

単に、何らかの実験や、カウンセリングのトレーニングのために、患者を模擬したチャットボットが必要な場合は、患者の言動を集めたデータセットを作成し、ファインチューニングすれば目的は達せられます。倫理的、実務的には大変でしょうが、技術的・科学的には問題(や新規性)はあまりありません。こうした表面的に似せたモデルと会話することが、実際に患者と会話することの代替となるかについてはかなり疑わしいですが、初歩的な段階において、紙面でのシミュレーションより少しはマシな選択肢にはなるかもしれません。

23:54:09
icon

@redshift 時々機械学習系の学会でもこういった話題が出てくることがありますが、参加者に心理学の知識がなく、質問も少なく、科学的なアプローチをどうやって設計するかといった点にまで議論を深めることがなかなか難しいです。逆に、心理学系では機械学習の知識がないことから色々と難しいかもしれませんが、機械学習モデルと心理学を正しく統合すれば、人間の心理現象を克明かつ計量的に捉えるための道具となりうると思います。また疑問などがありましたらよろしくお願いします!