Published: June 19, 2025
1
48
184

#OpenHands CLI試してみた。24GBに収まるローカルLLMだとmistralai/devstral-small-2505が一番よく動く。他はloopで落ちたり全然ダメだった。設定はこんな感じ。 ~/.openhands/settings.json { "llm_model": "lm_studio/mistralai/devstral-small-2505", "llm_api_key": "ollama", "llm_base_url":

Image in tweet by Photogenic Weekend

とはいえ、ちゃんと動かすにはデカいLLMが必要。ローカルでDeepSeek動けば…的な(笑)

devstral-small-2505でブロック崩し(html, js, css)はいけた!

Image in tweet by Photogenic Weekend

お”ー!M4 Max 128GBで(速度面も含め)それなりに動くllama-4-scout-17b-16e-mlx-text(4bit)だと、そこそこ使える!?

llama-4-scout-17b-16e-mlx-text(4bit)版ブロック崩し

Image in tweet by Photogenic Weekend

Share this thread

Read on Twitter

View original thread

Navigate thread

1/5