p.tatapa.org

p.tatapa.org

ると | @ruto@p.tatapa.org

コンピュータ関連、その他言葉遊びなどを書いてます。アイコンは「腕時計」。ヘッダー画像は2-3フィンガーツリー。

@tadd 詐欺をするのはコインの運営者の方。検閲を受けるのは利用者の方。

@tadd ここで言う実効性というのはなに? なぜ法と関係ない?

@tadd 前提として、ここで言う「検閲」というのは誰かに取引を禁止されることを指していて、価値を失わせることは実質的に禁止となる。

@tadd 例えばビットコインの価値は法による裏付けに依らない(規制によって上下はするものの)。しかし、法定通貨に裏付けされたステーブルコインの価値は法に依存する。

@tadd 日本円と交換できなくなったらそのコインを受け取る人は実質いなくなって、事実上使えなくなるのでは。

@tadd 法的な保証というのは専用の法に限らず、「このコインはいつでも日本円と交換します」という約束を破ったら詐欺や民事で訴えられるという点にあり、そこに「新しい法律/判例ができてあなたのそのコインは日本円と交換できなくなりました」があり得る以上、耐検閲性は持てないという認識。

そもそも法定通貨に裏付けされたステーブルコインであることと耐検閲性を持つことの両立は難しいのでは。

法定通貨による裏付けは技術では保証できず、法で保証する必要があり、法の保証を受けるということは法の規制を受ける可能性があるということである。

ビットコイン等と比べて速くて安いといっても、古典的なサーバでトランザクションにユーザと運営の両方の署名を付けて公開するのと比べて利点があるんだろうか。ERC-20に従ったツールがおそらく使えるのは利点と言えるけど、ブロックチェーンだからというよりは仕様が標準化されているかの問題である。

JPYC社はアカウントを停止できるので、「介入なし」がどこまで保証されるかは疑問が残る。

https://blog.3qe.us/entry/2025/08/20/130454

https://corporate.jpyc.co.jp/terms/prepaid 「JPYC Prepaidの利用の全部または一部を停止することができます」

https://zenn.dev/jpyc/articles/61af38ac10293a 「JPYC Prepaid v2のブロックリスト機能の紹介」

https://japan.cnet.com/article/35236850/ 「違法行為であれば我々もブロックする権利はある」

規約やブログはPrepaid版についてだけど、JPYCもほぼ同じはず。

システムプロンプトに「会話の最後に逆質問をしないでください」って追加した。

gpt-5などの思考モデルはさすがに遅すぎるので好きではない。gpt-5-chat-latestは味付けにクセがある。gpt-4.1くらいのが雑談にはよい。

gpt-5-chat-latestがなんか毎回最後に逆質問してくる。しかも最初の質問に書いてあることとか聞いてくる。

コーディングエージェントはLLMが100倍とか1000倍の速さになれば非同期的に複数並列で動かすのではなくインタラクティブに動かす形になるかと思ってたけど、自動テストや静的チェックは速くならないのでやはり非同期的に並列に複数の機能を実装させる必要があるのかもしれない。

LLM達に「テレビのショーで101個の扉があり、1つには賞品の車が後ろにあり、残りには山羊が後ろにある。101人の参加者が好きな扉を順に選ぶが、他の人が選んだ扉は選べない。全員が選び終わった段階で司会者はハズレの扉から順に開けていく決まりとなっている。99個の扉が開き終わった段階で残った参加者Aと参加者Bは選択した扉を交換することができるが、するべきだろうか」という問題を出すとそれなりに正解するけど、「参加者Aと参加者Bは」というのを消すと正解率が大幅に落ちる。

2²⁵⁶人の宮沢賢治は1日に2²⁵⁸合の玄米を食べる。

荒い正規表現でLLMのトークンを分類しておき、レクサの正規表現がその荒い正規表現を含むときは処理をまとめてスキップする。

その他、トライ木は配列として表現するとか分岐を予測可能にするとかの細かい最適化。

GPT-5では出力形式を文脈自由文法で制限できるんだけど、その技術的な説明(使ってるライブラリの解説記事)。

https://guidance-ai.github.io/llguidance/llg-go-brrr

正規表現ベースのレクサとEarleyパーサを組み合わせて、LLMのトークン辞書内の各トークンに対してその場所で出現できるかというのを計算して、出現できないトークンはサンプリング時に出現確率を0にする。

この処理はGPUが計算をしている間にCPUでやるので高速にする必要があるし、初期化作業も高速にする必要がある。

正規表現エンジンはderivativeベースのもので、部分式やderivativeの計算はハッシュテーブルにキャッシュする。

LLMのトークン辞書はトライ木で表す。木を辿りながらレクサ+パーサが各バイトを受け取れるかどうかチェックして、受け取れれば子を辿る。全ての子を辿り終わった後はレクサ+パーサの状態を戻す必要がある(この辺derivativeベースのレクサ+Earleyパーサ(動的計画法ベースで表を作っていく)という構成の相性がよい?)。

パーサの方から次に許されるレクサのトークンの情報をレクサに渡して絞り込む。

「猫型ロボット」ってフランス語だとchatbotなんだろうかと思って調べてみたら、フランス語版Wikipediaの« Doraemon »だとchat-robotと説明されていた。

https://fr.wikipedia.org/wiki/Doraemon

»