如果你在一开始的需求里面让他把结果生成到一个txt文件里面,那么你这个时候就可以去对应的txt文件里面拿到结果了。我使用的是deepseek的模型,因为非常便宜,1元钱充值50万Token,常规任务足够了。现在,把所有数据包保存为文件(方法看我上一篇文章)。大家也可以使用Groq的免费API,或者硅基流动的API,或者通义千问,或者ChatGPT或者Azure OpenAI都没问题。
如果你连y都不想按,那么可以在启动时加个命令,自动执行代码interpreter --auto_run。但可能有同学连Python代码都不想写,他觉得还要学习haralyzer太累了,有没有什么办法,只需要说自然语言,就能解析HAR文件?借助open-interpreter,我们可以实现全自动爬虫,它可以自动使用requests请求URL,也可以自动操作浏览器,自动滚动页面。
1、python核心编程电子书
data.items列表,对这个列表进行迭代,如果每一项的model_type字段不为note,跳过。如果你是用的Open AI的API,那么你什么都不需要做,直接命令行运行interpreter即可,首先次运行他会让你提供API KEY。最近我在测试open-interpreter,发现借助它,基本上已经可以实现自然语言编程的效果了。
2、python核心编程第三版中文pdf
从浏览器保存HAR文件,然后写Python代码解析HAR文件来抓取数据。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 80448874@qq.com 举报,一经查实,本站将立刻删除。如若转载,请注明出处:http://www.pglvshi.com/pgjn/6461.html