通过本地部署Ollama,加载通义千问等大模型,可以在普通电脑上运行AI。
进一步通过设置 OLLAMA_HOST ,可以为网络提供AI服务。
再一步,将本机映射到外网,可以通过Ollama的手机APP为更多的手机用户有提供AI服务。
这个方法是为了解决普通多用户的AI应用,毕竟要租用服务器来实现AI服务,价格非常昂贵,而普通人的应用频度是非常有限的。将“AI服务器”放在家里,普通的迷你电脑都可以满足,谁家里还没个100MB网络,买不起个两千元的迷你主机呢。往角落一放,还可以PVE All In One。
若Ollama APP能够实现语音与文字与转,那就可以实现用户通过语音来获取AI交互,非常方便了。
进一步,增加每个人的个人资料库,形成一套自己的AI。