twitter不調というか表示数制限発動らしい
認証済み、っていうのは多分有料会員のことかな。
背景としては、twitter API(ツイート内容取得)の料金値上げ → 業者は昔ながらのWebクローリングで情報取得 → ログインしないとツイート内容を表示しないように変更 → 業者は捨て垢新規登録してWebクローリングで情報取得 → 無料垢からの取得件数を600件に制限、新規垢は300件に制限、という流れらしい。
異説としてtwitter社内のプログラムが無限ループしてた説もある。
また、別の説としてGCPで実現してたスクレイピングに対する高度なレート制限が、契約更新で揉めて今月から使えなくなったんじゃないか疑惑もあるようだ。
→ 06/22に支払い再開という記事があったので、この説はとりあえずナシかな?
p.s.
そういえば先日スパムポリシー違反とか言って制限してたな。 2回いいねしたらtwitterそっ閉じする暮らしに変えた。
p.p.s.
ちょっと緩和する予定らしい。(いつから緩和するのかは不明)
一般人が600件もツイート見るか?という話だが、twitterクライアントは起動時に50件くらいオススメから(フォローからも別途50件くらい)ツイート内容を取得するので人間はそんなに見ていないつもりでも1時間程度操作しているとAPI制限がかかる模様。
p.p.p.s.
0300ごろ。pawoo.net落ちたっぽい
0745ごろ。misskey.ioは過去最高の同時接続4万を突破。
0845ごろ。mstdn.jp落ちたっぽい。
0900ごろ。misskey.ioはDB鯖増やしてるけどそのうち落ちそう
EdgeブラウザのBingは現在表示中のWebページ内容をサーバに送信して回答を作る?
tag: edge, bing
ログインが必要な秘密のWebサイト(192.168.1.xx)を開いているときにEdgeブラウザのBingボタンを押す > 自動的に質問例として表示される「ニュースで何が起こっているの?」ボタンをクリックすると、現在閲覧中の秘密のWebサイト内容がAIによって「これは個人のメモです」って要約されてワロタw
そこはサーバに送って欲しくない所だったがなー
(全世界公開情報を開いている時なら便利な機能なんだけどね)
そういえば、ちょっと前にOpenAIのChatGPT-4のプラグインに Browse with Bing (Beta) ってのがあって(今は削除されてるけど)、これはログインが必要な秘密のWebページ内容をEdge Bingが代わりに取得してサーバに送信してしまう問題が指摘されたヤツ。
OpenAI Webサイト側の ChatGPT-4 のプラグインは消去されたけど、Edge Bing側にはまだAIからの返事の中にある Function Call 要求に応じて<閲覧中のWebページの内容を送信する>みたいな機能が残ってるとすれば、この動作にも納得できるかな。
EdgeのBingは封印しておこう。 ダメだこいつ。
p.s.
ChatGPT-3.5/4のFunction Call機能とは、AIへの問い合わせAPIの中に質問文と共に<私(呼び出し元のプログラム)はget_user_browsing_web_page関数を持っています。機能はこれで引数はこれこれです。>みたいな情報を英語で持たせておくと、AI側が会話の流れを読んで必要ならFunction Call: get_user_browsing_web_page 実行ヨロシク!と返却する機能。 呼び出し元プログラムは、返却結果にFunction Call: 関数名 が来たら、プログラムの中の該当する関数を呼び出して処理結果をもう一度 AI側に送信して、それらの結果をあわせてAI側が最終結果を返す動きをする。
今回は「ニュースはなに?」って聞かれたAIがキョドって「ユーザーが見ているWebページの内容を取得」関数を呼び出す返事をして Edge Bing がそれに答えてデータを送信したって感じかな。
winget upgrade --all したら Node.js v21.0.0-nightly がインスコされて草
tag: winget, windows11, nodejs
nightly build が winget 公式に登録されているとは思わなかったぜ...。
OpenAI GPT-4モデルのAPI利用を一般ユーザーに公開
tag: chatgpt, openai
8/1を目標に、OpenAI API契約ユーザーは順次利用可能になる予定とのこと。
ちなみにニュースを見て model="gpt-4" 指定してAPI発行してみたらモデルはありませんエラーが返ってきたので自分はまだらしい。
diffusers 0.19 あたりから safetensors 型式のモデル/VAE を読み込めるようになった
tag: diffusers
サンプルコードは以下。
from diffusers import StableDiffusionPipeline pipeline = StableDiffusionPipeline.from_single_file( "https://huggingface.co/WarriorMama777/OrangeMixs/blob/main/Models/AbyssOrangeMix/AbyssOrangeMix.safetensors" )
また、VAEもsafetensors形式の読み込みに対応。
from diffusers import AutoencoderKL url = "https://huggingface.co/stabilityai/sd-vae-ft-mse-original/blob/main/vae-ft-mse-840000-ema-pruned.safetensors" # can also be local file model = AutoencoderKL.from_single_file(url)
これで配布されているモデルデータをdiffusers形式にコンバートしなくても読み込めるようになった。