アメリカの古い広告特集にあった反戦広告。
「次の戦争が来ればこの子やその母親は『戦死』します」とか「次の戦争では非戦闘員などというものはありません」というのをガザのことを考えながら読みつつ、広告作りが上手だなーとか思ってたら、これが第二次世界大戦前の広告であることを思い出してなんとも言えない気持ちになった。結局止められなかったし、今も止められていない。
Googleによる公式声明: https://blog.google/products/workspace/gmail-security-protections/
簡潔に報道を否定するもので、特にリンク先を見る必要はない。
2025年は世界的な平均気温は2024年や2023年と比べればやや低めだったけど、日本は大分暑かったらしい。
https://www.jma.go.jp/jma/press/2509/01a/summer_temp_20250901.html
9月も10月も暑いとか勘弁して欲しい。
ベクトルへの埋め込みを使った検索システムの理論的な限界と、実験と、現実的な例についての論文(DeepMindのインターンシップの成果らしい)。
https://arxiv.org/abs/2508.21038
理論的な限界について: n個のドキュメントとm個のクエリが与えられたとする。このとき、クエリを行としてドキュメントを列とした行列を考えて、各要素はドキュメントがクエリにマッチすべきであれば1, そうでなければ-1とする。どのようなドキュメントとクエリの組み合わせに対してもこの行列の通りに検索できるシステムをベクトル検索で作る場合、ベクトルの次元はこの行列のランク-1以上である必要がある。一方、この行列のランクだけあれば十分である。
実験1: テスト用のランダムな行列に対して、それを再現する埋め込みベクトルを各ドキュメントとクエリに割り当てるようなモデルをAdam最適化器で求め、再現に成功する次元数の最低値を求めた。するとドキュメント数に対して3次式で近似できるような値となった(クエリ数はドキュメント数の2乗というかnC2で増やしてるので3乗となる)。4096次元だと2億5千万ドキュメントが上限となる。
実験2: では、そのようなランダムな行列は現実的なのかという問題がある(AI関連の問題は見掛け上の次元は高くて解けなそうに見えても、実質的な次元は非常に低いので解けるというような場合がよくある)。その答えとして、次のようなドキュメントとクエリを考える。n人の人がいたとして、ドキュメントは各人が好きなものが書かれているとする。一方、クエリは「○○が好きな人はだれですか」というものである。ドキュメントとクエリの内容を調整することで任意の行列が現れる。実際、埋め込みが難しいであろう行列を用意してそれに対するドキュメントとクエリを作成して、既存の埋め込みモデルをテストしたところ、総ドキュメント数50万, 各クエリにマッチすべきドキュメント数2という条件で再現率は非常に低い結果となった(一方、キーワードによる単純な検索システムは当然高い値が出る)。
物流倉庫における自動化と作業員の負傷の関係に関する研究の紹介記事。
https://techxplore.com/news/2025-08-warehouse-automation-hasnt-workers-safer.html
Amazonで自動化を導入した倉庫はそうでない倉庫と比べて重症事故を40 %減らせた一方で、作業員は2〜3倍の成果を求められるようになり、軽症の負傷は77 %増加した、とのこと。特にプライムデーなどで顕著らしい。作業の質も重労働から軽度であるもののペースが速い繰り返し作業になり、燃え尽きやゾーンアウト状態になることもあるとしている。
プラスチックの魚型の醤油入れがオーストラリアで禁止されるとのこと。30 ml未満の醤油が入った蓋付きの容器がだめらしく、袋入りのものは大丈夫らしい。
日本でもあまり見なくなった印象だけど、いまどの程度使われているんだろうか。
これ、完全に統制されたデータセットで事前学習したのとモデルが小さいせいで、汎用的な推論能力を獲得できていないという可能性はないだろうか。なんか形式論理とか代数とかの問題を事前学習に加えたら向上したりしない? 一般のLLMの場合、パラメータ数や事前学習データ量を増やしたときに、途中まではあまり性能が上らないけどある時点でいっきに上がるとか、プログラムのソースコードを読ませたら一般的な能力が向上するとかあったはず。
re: だれかC言語詳しい人教えて、どういうことなの
要求事項: シャンプーのボトルは詰め替える前に、ポンプを含めて全て洗って完全に乾かす必要がある。
問題: 夜に使い終わってから次の日までにポンプを含めて全て洗って完全に乾かすのはたいへん。
解決案: ボトルを2セット用意する。使っていない方のボトルは時間があるときに洗って塩素消毒して乾かす。
WIREDにAIが生成した虚偽らしき記事が載ってしまったので撤回しました、という記事なんだけど、この訂正記事(8月21日付け)はWIREDの記事一覧には載ってない?
https://www.wired.com/story/how-wired-got-rolled-by-an-ai-freelancer/
少なくともRSSの受信記録にも、“Most Recent”の記事一覧の10ページ目(8月中旬)までにも、“Culture”の記事一覧の7ページ目(4月中旬)までにもこのタイトルの記事は無かった。
撤回された記事はこちら: https://www.wired.com/story/they-fell-in-love-playing-minecraft-then-the-game-became-their-wedding-venue/
拡散モデルは単純に考えると学習データのいずれか1つをそのまま確率的に出力するだけになりそうなのに、なぜ多様な出力が得られるのかという問題に対する論文。
https://arxiv.org/abs/2412.20292
https://www.quantamagazine.org/researchers-uncover-hidden-ingredients-behind-ai-creativity-20250630/
次の2点が重要なのではないかとのこと。
・ニューラルネットワークが画像等の全体ではなく周辺の情報のみを元に出力を決めていること。
・画像等の全ての場所で同じニューラルネットワークを使っていること。
これにより、各場所の値を決める際に、その周辺を見て、いずれかの学習データのいずれかの似た場所に近づける形になるけど、各場所ごとにどの学習データのどの場所に近づけるかは異なるので、多様な結果が得られる、としている。
例えば、白黒2値画像で真っ黒な画像と真っ白な画像の2つを学習データとして、各ピクセルの周辺3×3を元に中心の画素を決める場合、周辺に黒が多ければ中心を黒として、白が多ければ白とする形になる。これをノイズから始めると真っ黒でも真っ白でもない模様に収束する(Figure 3)。
これで「赤い照明の下の猫」と「青い照明の下の猫」とかを上手く作れるのかよくわからないけど、その辺りは複数のタグ等による条件付きスコア(確率が上がる方向)が混ぜ合わされることとか、ピクセル領域ではなく潜在領域で値を扱うこととかで上手くいくとかだろうか。
Gmailユーザはパスワードを変えるべきとGoogleが言っているという記事が流れてきて、Googleからそのようなアナウンスはないし、各種技術系ニュースサイトでもそのような記事はなくておかしいと思ってたら、やはりGoogleはそんなことは言っていなかった。
・Googleが使っているSalesforceのデータベースが6月に侵入され、顧客(中小企業)に関する情報が盗まれたもののパスワード等は流出していない(既報)。
・Redditでフィッシングが報告されている(メールおよび電話によるもの)が、Salesforceの件との関係は特に示されていない。
・Googleは今回の件とは無関係にPasskeyの利用などを推奨している。
といったもので、特にパスワードを変えろとか、ましてや定期的に変えろとか、ブラウザ組み込みでないパスワードマネージャを使えなどとは言っていない(Forbesなどが言ってるだけ)。また、25億人というのも単にGmailとGoogle Cloudのユーザ数で、今回の流出によって危険になった人数ではない。
https://cloud.google.com/blog/topics/threat-intelligence/voice-phishing-data-extortion
https://platform.inceptionlabs.ai/docs#endpoints
Emacs用のクライアントを書くべきか。