Anthropic双箭齐发!浏览器写代码,连接科研平台

B站影视 韩国电影 2025-10-23 02:52 2

摘要:后面我要把这事儿讲清楚,不搞花里胡哨,直接说发生了什么、怎么用、在哪儿需要小心。简单一句话概括:Claude这回往两个方向伸手——一个是进实验室帮科研人员跑流程、查资料、画图,叫Claude for Life Sciences;另一个是把原本需要在命令行里折腾

10月21日,Anthropic一次性把两个重要功能推出来:

后面我要把这事儿讲清楚,不搞花里胡哨,直接说发生了什么、怎么用、在哪儿需要小心。简单一句话概括:Claude这回往两个方向伸手——一个是进实验室帮科研人员跑流程、查资料、画图,叫Claude for Life Sciences;另一个是把原本需要在命令行里折腾的Claude Code搬到网页上,程序员打开浏览器就能用,能写代码、修 bug、自动生成测试和拉取请求(PR)。

先说网页写代码这块。以前想用Claude Code,得会开终端、装工具、配环境,比较偏技术同学;现在Anthropic把它做成了一个网页版Beta,先给Pro和Max用户试用,还有个早期iOS版在测试。网页版的思路挺直白:把很多重复性的编码任务放到云上并行跑。你把GitHub仓库连上去,告诉Claude要做啥,它能在Anthropic的云上同时启动好几个隔离实例,分别去做不同事儿——修几个不同的bug、生成单元测试、写重构脚本,都能并行执行。每个会话在独立的运行环境里,能看到实时进度,执行过程中还能改变指令。

操作完成以后,系统能自动创建PR,附带一段清楚的改动摘要,方便你在浏览器里直接看、Review、接受或拒绝。对那种重复性高、可以并行的工程活儿,这玩意儿省了很多手工操作。官方还强调,它支持用测试驱动开发的流程来验证改动:Claude可以在云端跑测试、把结果拿回来再修代码,直到测试通过或给出失败原因。对团队来说,不用切来切去工具,在一个页面里就能和AI互动、审核改动,这个体验挺贴合日常开发流水线的需求。

安全性不是摆设。每个任务都在沙盒环境里跑,网络和文件访问被限制。所有交互经由一个安全代理服务转发,Claude只能访问被授权的代码库,凭证不会被滥用。你还能自己配置沙盒允许连接哪些域名。对企业用户来说,代码和凭证的安全是红线,有这些控制措施,管理层和安全团队会相对放心些。

再说生命科学这边。Claude for Life Sciences用的是Sonnet 4.5模型,Anthropic想把它当成能贯穿科研流程的助手来推。官方给出的评测数据能看出一些变化:在Protocol QA这个考察模型能否理解并执行实验步骤的测试里,Sonnet 4.5得分0.83,高于人类基准0.79,上一代Sonnet 4是0.74。生物信息学相关的BixBench测试里,新模型的表现也在前代之上。这些数据说明模型在理解实验流程和做生物信息推理上有进步,但并不是万能的通行证,更多是表明方向对了。

为了贴合科研人的工作习惯,Anthropic把Claude和不少科研工具做了对接。举例子:Claude能按你指令去Benchling里拿实验记录,在BioRender里生成科研插图,检索PubMed论文,调用Synapse.org做协作分析,甚至能通过自然语言去触发10x Genomics的单细胞分析流程。换句话说,查文献、整理实验笔记、做图表、跑下游分析这些重复工序,Claude能把大部分环节串起来。实际操作还是基于API与平台集成,科研人员需要授权,配置权限,但那些数据搬运和格式转换的劳动量会被压缩。

这次的一个设计亮点叫Agent Skills,直白点就是“能力包”或者“流程箱”。你把某项技能装进去,比如“单细胞RNA测序QC”,里面会有必要的脚本、标准、说明书等,Claude就能按既定步骤去做,从过滤低质量细胞到生成QC报告都走固定流程,不用每次都从头教。对于实验室里那种标准化、重复性的流程,这东西能保证一致性和可控性,减少每次都靠人来反复校准的麻烦。

企业和咨询圈的配合也很明显。Anthropic公示的合作伙伴包括德勤、埃森哲、毕马威、普华、Quantium、Slalom、Tribe AI、图灵公司,云端支持有亚马逊和谷歌云。这些伙伴既能推动商业落地,也能在合规、安全审计方面帮忙把关。对大型机构来说,能把模型能力和企业级流程结合起来,比单纯放个研究版更重要。

有个社交媒体上的反响值得一提。有网友把Anthropic这次的动作和OpenAI早前关于“GPT-5能解数学题”的那波风波联系起来。当时OpenAI被指出是把历史文献里的答案检索出来,外界有点怀疑那种“看起来很牛”的效果背后是不是有姿势过度宣传。Anthropic在自己的说明里把目标说得挺明确:要AI能靠谱、可控地参与科研流程,不是靠耍花样来吸引眼球。这波更新的定位偏务实,很多人看了就觉得在做对比,讨论也挺热闹。

说说真实场景怎么用。想象一个小组的日常:研究员把最近实验记录存Benchling,要求Claude把这些记录整理成一份实验报告;接着让它把关键数据画成可视化图表,输出成BioRender格式;然后让它检索最新的相关论文,把重要结论摘出来;最后把分析结果通过Synapse共享给合作者。整个链条能被Claude连成流水线,省去了人工在平台间反复搬数据、格式转换的时间。操作的每一步都需要授权,团队要在权限和审计上做好设定,但实际工作量会少很多。

在代码端的使用也类似:你可以要求Claude在本地仓库的某个分支上做改动,或者先让它在云端沙盒跑一遍,生成改动后提交PR。系统会给出改动摘要、测试结果和修改理由,开发者再决定是否合并。这样AI更像是个“初稿写手+初步测试员”,最终的判断和发布权仍然在人工手里。

这些更新背后也有商业数字在支撑。Anthropic表示,自今年5月以来,Claude Code用户数增长了十倍,目前每年给公司带来超过5亿美元收入。这说明这不是个小众实验,已经成了他们重要的营收来源。产品从实验室工具、到工程辅助,再到可直接嵌入工作流的组件,这条路能拉到商业收入,也能获得企业客户的信任,二者相辅相成。

不过要把Claude做到“超人研究助手”那种水平,路还长。Anthropic生命科学部的两位高管Jonah Cool和Eric Kauderer-Abrams把目标定得很大:希望Claude参与科研从资料整合到结果报告的整个链条。要实现这个目标,不光是让模型更聪明,还得在平台集成、安全审计、合规性和行业合作上走实,每一步都要和监管要求、伦理规范对得上号。这些工作不是一天两天能完成的,也不是只靠模型能力堆积就能解决的。

日常使用中会碰到的细节也不少。比如把外部数据库和私有数据连在一起,权限边界如何划清;当模型给出实验建议时,如何设计人工复核流程;在生成图表或代码改动后,谁来承担最终责任;还有合规记录和审计日志如何保存以便追溯。把这些流程前置并标准化,才可能把AI从“帮忙玩玩”的工具,变成能进入正式科研或开发流程的成员之一。

再举个小插曲:团队里会有人担心AI会不会把一些敏感片段泄露出去。Anthropic的做法是把运行环境隔离、把访问控制交给用户、通过代理服务管住凭证,尽量把风险往下压。但安全不是靠一句话能保证的,企业在上线前通常会做渗透测试、权限演练和合规审查,确保在真实业务场景里不会出现意外。

总的来说,这次更新把两个比较实用的方向一起推进:一个是让开发者更方便地在浏览器里用AI做代码工作,另一个是让科研人员把日常繁琐的记录整理、图表生成和基础分析交给AI来做。产品想法挺明确——把门槛往下压,把重复性工作自动化,同时把安全、权限和审计做成标准流程。要把这些变成常态化的工作工具,技术提升、平台整合、合规把关、行业合作都缺一不可。继续推进会有不少工程和管理细节要解决,这些都不是一朝一夕能完全搞定的事。

来源:乐天派奶酪a1Yyd

相关推荐