クラスタをアップデートした
あれ,transportが指定されたときはそれを使ってるけど,指定されてないときはキャッシュからとってないか?
client-goのNewForConfigするとhttp.DefaultTransportの設定値が有効になっていない気がする
いい加減直し方はわかってきた.あとは原因だ.これなんでdefaultTransportを使うとtcpを貼り直さないんだろ
http2を切ったとしても同じエラーが観測できる.つまりこれ自体はhttp2のhealth checkが問題ではない.http2を入れようが入れまいが,tcpのconnectionの貼り直しが発生していないのはなぜなんだ
これかと思ったんだけど,原因はこれだけじゃないな.http2を使わなくてもconnectionは再利用されている.ログを見ればわかるけど,transportをnewするのは最初の1回だけで残りはキャッシュを使ってるのか
https://github.com/kubernetes/kubernetes/pull/95981
だいぶいいとこまできたな.LBまでは疎通してる.問題はLBがkeep-aliveに反応しているが,その裏側までリクエストが到達してない気がしてならない.少なくともkeep-aliveを短くすればそれで対応は可能だなぁ
何も設定していないときにkeepaliveしてるなんてことないよな?idle connectionが普段どのくらい残ってるのか確認したいんだが
まじで全然わからん.これpod内に入っても正常に動いているし,エラーになったプロセス内でのみなにかがおかしい.何がおかしいんだよ
俺の勘が正しければ,これはetcdは関係なくてmasterが死んだときに確率的に発生するのではないかと思ってるんだけど,違うんだろうか
hogehogeStatusでintとか定義するのやめてくれないかな……全然value objectの意味を理解してないじゃん
goのリリースバイナリをreleasesの添付ファイルにしているんだけど,これリリースタグ作ったらCIで自動ビルドして添付するようにできないかな
@marian @vic I created a pull request. How about this wording? Please review this.
https://github.com/h3poteto/whalebird-desktop/pull/2484
あとはCNIが壊れてる可能性は否定できないな.それであるならクラスタ内からだけエラーになる理由も多少は説明がつく
これ見た目的にはkube-apiserverまで疎通してない感じがするんだよなぁ.なんでなんだろ.ipは変わらないはずなのに.ちょっとdigし続けてみるかね……
これはclientsetの生成に問題があるか,secretとかキャッシュされてないか?controllerのpodを再起動したら治るんだが
このアカウントは、notestockで公開設定になっていません。
I released Whalebird version 4.4.1. I added filter settings. Filters will be synced with Mastodon/Pleroma server and it will be applied.
https://github.com/h3poteto/whalebird-desktop/releases/tag/4.4.1
#whalebird
Whalebird 4.4.1をリリースしました.フィルタの設定画面が追加されており,フィルタがサーバ側と同期されて適用されるようになります.
https://github.com/h3poteto/whalebird-desktop/releases/tag/4.4.1
#whalebird
あと真面目な話をすると,ホテルにしろ旅館にしろ仕事できるほどの椅子と机とインターネット回線が揃っているところが結構少ない
あーInstanceProfileを取得すれば紐付いてるRolesは取れる.つまりここのTagsをフィルタリングすればいける
InstanceProfileってそれ自体にはtagはつかないのか.紐付いてるIAM Roleのtagで判断するしかないのかなぁ