<< 2024-05-22 | 2024-05-24 >> DailyNote この配信でOllamaというLLMをローカルで実行できる環境の話をリスナーさんから聞けた。 色々モデルを試せるし、せっかくちょっと強めのGPU積んだのでライブ配信でもやってみようと思う。