
先日、動詞さんが自分用に1年かけて作られた情報収集ツールのnookをGitHubで公開してくださった↓
https://x.com/IMG_5955/status/1895679236394103262
https://x.com/IMG_5955/status/1896544927527625005
https://x.com/IMG_5955/status/1895788256106791267
nookとは、HuggingFaceのデイリーペーパーで紹介されてる論文や、RedditのLocalLlamaサブレディットの情報を収集してきてAIが良い感じにまとめてくれた奴をブラウザからいい感じに見れるようにしてくれるツールだ。
nookの詳しい概要についてはリポジトリのREADMEや、Grokに説明させた以下を見て欲しい
おお、自分で作るのは面倒だったけど、こういうの前から欲しかった気がする!ありがたい!
というわけでさっそく手元でnookを動かそうとしたが、AWSにガッツリ依存していてローカルでは動かせない感じだったので、フォークしてGrokに頼んでローカルで動くように改造してもらったのが以下である。
https://github.com/umiyuki/nook
ついでにGrokとのチャットのやり取りも載せておく↓
https://grok.com/share/bGVnYWN5_48261ef5-dd5c-42b8-a0c8-ac12a04ba0e8
main.pyを実行するとwebから情報収集を行うようになっている。だからcronで毎日定期実行してやれば毎日最新情報を取得して閲覧できるようになる。
フロントエンドのサーバはサービス化する事で永続化できる。その辺の手順についてはフォーク版リポジトリのREADMEに記載した。