当前位置: 首页 > news >正文

【GitHub每日速递 250916】2053 个 n8n 工作流曝光!365 种集成 + 可视化管理,效率直接拉满

image

原文:【GitHub每日速递 250916】2053个n8n工作流曝光!365种集成+可视化管理,效率直接拉满

Codebuff:开源AI编码助手,多模型协作胜Claude Code,还能深度自定义!

codebuff 是一个通过终端生成代码的命令行工具。简单讲,它让你在终端里直接用AI生成代码,提升开发效率。适用人群:开发者、程序员

项目地址:https://github.com/CodebuffAI/codebuff

主要语言:TypeScript

stars: 1.3k

核心功能

Codebuff 是一个开源的 AI 编码助手,它可以通过自然语言指令对代码库进行编辑。它不依赖单一模型,而是协调多个专业代理协同工作,以理解项目并进行精确修改。

工作原理

当用户向 Codebuff 提出如“为我的 API 添加身份验证”等需求时,它会调用多个代理:

  • 文件探索代理:扫描代码库,了解架构并找到相关文件。
  • 规划代理:规划需要更改的文件以及更改顺序。
  • 编辑代理:进行精确编辑。
  • 审核代理:验证更改是否正确。

这种多代理方法比单模型工具能更好地理解上下文,编辑更准确,错误更少。

安装与使用

CLI

  • 安装:npm install -g codebuff
  • 运行:进入项目目录(cd your-project),然后执行 codebuff。之后用户只需告诉 Codebuff 需求,如“修复用户注册中的 SQL 注入漏洞”等,它会自动完成文件查找、代码修改,并运行测试确保代码正常。

创建自定义代理

运行 codebuff init-agents 开始构建自定义代理。用户可以编写代理定义文件,通过指定工具、可生成的代理和提示来实现工作流程。还提供了 TypeScript 生成器以实现更多编程控制。例如,git-committer 代理可以根据当前 git 状态创建有意义的提交。

SDK

  • 安装:npm install @codebuff/sdk
  • 使用:导入客户端并运行代理。可以使用 Codebuff 的基础编码代理执行编码任务,也可以运行自定义代理。

优势

  • 深度可定制性:使用 TypeScript 生成器创建复杂的代理工作流,将 AI 生成与编程控制相结合。可以定义自定义代理,生成子代理,实现条件逻辑并编排复杂的多步骤流程,以适应特定用例。
  • 支持 OpenRouter 上的任何模型:与 Claude Code 不同,Codebuff 支持 OpenRouter 上的所有模型,包括 Claude、GPT 以及 Qwen、DeepSeek 等专业模型。用户可以根据不同任务切换模型,无需等待平台更新即可使用最新版本。
  • 可复用已发布的代理:可以组合现有的已发布代理,加快开发进程。
  • 完全可定制的 SDK:使用完整的 TypeScript SDK 将 Codebuff 的功能直接集成到应用程序中。可以创建自定义工具,与 CI/CD 管道集成,构建 AI 驱动的开发环境,或在产品中嵌入智能编码辅助功能。

应用场景

  • 代码修复:如修复 SQL 注入漏洞、改进性能等。
  • 功能添加:为 API 添加身份验证、速率限制等功能。
  • 代码重构:对数据库连接代码等进行重构。
  • 开发环境集成:通过 SDK 将智能编码辅助功能集成到开发环境或产品中。

ROMA框架:递归分层让多智能体系统搭建超简单,还自带多领域预建智能体!

ROMA 是一个基于递归开放元代理架构的多智能体系统框架。简单讲,它是一个能让你搭建多个AI智能体协同工作的工具,这些智能体可以互相调用、自我优化,完成复杂任务。适用人群:AI研究人员、多智能体系统开发者、对自动化协作系统感兴趣的工程师。

项目地址:https://github.com/sentient-agi/ROMA

主要语言:Python

stars: 1.7k

项目简介

ROMA是一个元代理框架,使用递归层次结构来解决复杂问题。它能将任务分解为可并行化的组件,使代理能够应对复杂的推理挑战,同时保持透明度,便于进行上下文工程和迭代。该框架具有并行问题解决、透明开发和经过验证的性能等特点,是一个开源且可扩展的平台,适合社区驱动开发。

核心功能

  • 递归任务处理:通过递归的计划 - 执行循环处理任务,包括Atomizer(判断任务是否原子)、Planner(将任务分解为子任务)、Executors(处理原子任务)和Aggregator(集成子任务结果)。
  • 信息流动清晰:任务自上而下递归分解,子任务结果自下而上聚合,有依赖关系的子任务按顺序执行。
  • 多类型执行器支持:执行器可以是大语言模型(LLMs)、API 或其他代理,只要实现 agent.execute() 接口即可。

技术栈

  • 框架:基于 AgnoAgents 构建。
  • 后端:使用 Python 3.12+ 搭配 FastAPI/Flask。
  • 前端:采用 React + TypeScript 并支持实时 WebSocket。
  • LLM 支持:通过 LiteLLM 支持任何提供商。
  • 数据持久化:企业级 S3 挂载,具备安全验证、零延迟文件访问、路径注入保护、AWS 凭证验证和动态 Docker Compose 安全卷挂载等功能。
  • 代码执行:使用 E2B 沙箱进行统一 S3 集成。
  • 安全保障:具备生产级验证和错误处理。
  • 其他特性:支持多模态、工具、MCP、钩子和缓存。

安装选项

  • 快速启动:运行 ./setup.sh ,可选择 Docker 或本地安装。还可通过 ./setup.sh --e2b 进行 E2B 沙箱集成,使用 ./setup.sh --test-e2b 测试集成。
  • 命令行选项:提供多种命令行参数,如 -docker-docker-from-scratch-native 等。
  • 手动安装:详细说明见 setup docs。

预构建代理

  • 通用任务解决器:由 ChatGPT Search Preview 驱动,可处理各种任务,适用于一般研究、事实核查等。
  • 深度研究代理:将复杂研究问题分解为子任务,支持并行信息收集和多源集成,适用于学术研究、市场分析等。
  • 加密货币分析代理:具备区块链和 DeFi 专业知识,集成多个金融 API,适用于代币研究、投资组合分析等。

优势特点

  • 递归任务分解:自动将复杂任务分解为可管理的子任务,并智能管理依赖关系,可并行运行独立子任务。
  • 代理无关性:通过统一接口与任何提供商(如 OpenAI、Anthropic、Google 或本地模型)配合使用,只要有 agent.run() 命令即可。
  • 完全透明:阶段跟踪可显示每个步骤的具体情况,便于调试和优化。
  • 工具集成:可无缝集成外部工具和协议,包含 E2B、文件读写等生产级连接器。

基准测试

对使用 ROMA 的简单搜索系统 ROMA - Search 进行了 SEAL - 0、FRAMES 和 SimpleQA 三个基准测试,并展示了相应的性能图表。

应用场景

  • 研究领域:如学术研究、市场分析、竞争情报收集等。
  • 信息收集:包括一般研究、事实核查、快速信息收集等。
  • 金融分析:如代币研究、投资组合分析、DeFi 协议评估等。
  • 创意项目:例如创意项目的规划和执行。

2053个n8n工作流大集合!高性能文档系统+智能分类,工作流管理新革命!

n8n-workflows 是一个收集整理 n8n 自动化工作流的资源库。简单讲,就是把各种现成的自动化流程打包分享,帮你快速上手 n8n 工具。适用人群:自动化工具爱好者、低代码开发者、效率工程师

项目地址:https://github.com/Zie619/n8n-workflows

主要语言:HTML

stars: 29.2k

该仓库是一个专业组织的n8n工作流集合,拥有2053个n8n工作流,还配备了闪电般快速的文档系统,具备即时搜索、分析和浏览功能。以下是对该仓库的详细介绍:

核心特点

  • 高性能文档系统:相比传统文档系统,性能提升100倍。响应时间低于100毫秒,支持即时全文搜索和高级过滤,具备响应式设计,适配移动设备,有暗/亮主题,能实时显示统计信息,可智能分类和按需查看、下载JSON,还能生成Mermaid图表进行工作流可视化,实时智能命名工作流。
  • 工作流集合优势:2053个工作流有有意义且可搜索的名称,涵盖365种独特集成,共29445个节点并经过专业分类,所有工作流都经过分析和分类。
  • 先进命名系统:能将技术文件名转换为易读标题,实现100%有意义的名称和智能大小写,还可自动检测集成。
  • 用例分类:通过自动化脚本对工作流按服务类别进行分类,用户可在搜索界面按类别筛选,方便找到特定用例的工作流。

性能对比

指标 旧系统 新系统 改进
文件大小 71MB HTML <100KB 小700倍
加载时间 10+秒 <1秒 快10倍
搜索 仅客户端 全文FTS5搜索 即时
内存使用 ~2GB RAM <50MB RAM 少40倍
移动支持 优秀 完全响应式

工作流统计信息

  • 当前集合统计:共2053个自动化工作流,215个活跃工作流(活跃率10.5%),29445个总节点(平均每个工作流14.3个节点),365种不同服务和API,使用SQLite数据库并支持FTS5全文搜索。
  • 触发分布:复杂触发(多触发系统)831个工作流(40.5%);Webhook触发(API触发自动化)519个工作流(25.3%);手动触发(用户发起工作流)477个工作流(23.2%);定时触发(基于时间执行)226个工作流(11.0%)。
  • 复杂度分析:低复杂度(≤5个节点)约占35%;中等复杂度(6 - 15个节点)约占45%;高复杂度(16+个节点)约占20%。
  • 热门集成:通信类有Telegram、Discord等;云存储类有Google Drive、Google Sheets等;数据库类有PostgreSQL、MySQL等;AI/ML类有OpenAI、Anthropic等;开发类有HTTP Request、Webhook等。

技术架构

  • 现代栈:采用SQLite数据库进行FTS5全文搜索,有FastAPI后端提供RESTful API和自动OpenAPI文档,前端是现代HTML5并嵌入CSS/JavaScript,具备智能分析功能,可自动对工作流进行分类和命名。
  • 关键特性:通过MD5哈希实现变更检测以高效重新索引,支持后台处理实现非阻塞工作流分析,使用Gzip中间件压缩响应以优化速度,有强大的错误处理和全面日志记录,界面针对移动设备优化。
  • 数据库性能:数据库表结构经过优化,支持快速查询,还创建了虚拟表用于全文搜索和排名。

使用说明

  • 现代快速系统(推荐):克隆仓库,安装Python依赖,启动文档服务器,然后在浏览器中访问http://localhost:8000,可进行即时搜索、查看专业响应式界面和实时工作流统计信息。
  • 开发模式:可使用-dev参数启动自动重载,也可指定自定义主机和端口,还能使用-reindex参数强制数据库重新索引。
  • 导入工作流到n8n:可使用Python导入器,也可手动导入单个工作流,但需在运行前更新凭据和Webhook URL。

API文档

  • 核心端点:提供了主工作流浏览器界面、数据库统计信息、工作流搜索、详细信息查看、下载、生成Mermaid图表等接口。
  • 高级搜索:支持按服务类别搜索、列出可用类别、获取集成统计信息和触发后台重新索引等功能。

贡献方式

  • 添加新工作流:从n8n导出工作流为JSON,按既定模式命名,添加到workflows/目录,移除敏感数据,运行重新索引更新数据库。
  • 质量标准:工作流必须功能正常且经过测试,移除所有凭据和敏感数据,遵循命名约定,验证与最新n8n版本的兼容性,包含有意义的描述或注释。

重要注意事项

  • 安全与隐私:使用前需审查工作流,更新凭据,在开发环境中安全测试,检查集成的访问权限。
  • 兼容性:大多数工作流与n8n 1.0+兼容,部分工作流可能需要额外的节点安装,外部服务的API可能已更新,导入前需验证依赖项。

资源与参考

  • 工作流来源:包括官方n8n.io的文档和社区示例、GitHub仓库的开源社区贡献、博客文章和教程中的实际自动化模式、用户提交的测试和验证过的工作流以及企业用例的业务流程自动化。
  • 学习资源:提供了n8n官方文档、社区论坛、官方模板库和集成文档的链接。

OpenPI开源机器人模型来袭!多类型模型、多平台支持,解锁机器人无限可能

openpi 是一个实现物理智能与机器人控制的开源框架。简单讲,它让机器人通过模拟真实物理环境来学习和优化动作。适用人群:机器人研发人员、AI研究人员

项目地址:https://github.com/Physical-Intelligence/openpi

主要语言:Python

stars: 7.3k

仓库概述

openpi 是由 Physical Intelligence team 发布的一个用于机器人的开源模型和包的仓库,提供了多种视觉语言动作模型(VLA),可用于机器人的推理和微调。

核心功能

  • 多种模型支持:包含 π₀、π₀ - FAST 和 π₀.₅ 三种类型的模型。π₀ 是基于流的 VLA 模型;π₀ - FAST 是基于 FAST 动作分词器的自回归 VLA 模型;π₀.₅ 是 π₀ 的升级版,在开放世界中具有更好的泛化能力。
  • 预训练模型和微调支持:提供了预训练的基础模型检查点,可用于微调。同时,也提供了针对不同机器人平台和任务的微调模型检查点,可直接在目标机器人上运行。
  • 推理和微调示例:提供了预训练模型推理和微调的代码示例,方便用户快速上手。
  • PyTorch 支持:除了原有的 JAX 版本,还提供了 π₀ 和 π₀.₅ 模型的 PyTorch 实现。

代码架构特点

  • 模块化设计:通过配置文件管理数据处理和训练参数,方便用户根据自己的需求进行定制。
  • 易于扩展:提供了详细的示例代码和文档,用户可以根据自己的数据集和任务进行扩展。

优势

  • 丰富的模型选择:提供多种类型的模型,满足不同用户的需求。
  • 预训练模型和微调支持:节省了用户的训练时间和资源。
  • 详细的文档和示例:方便用户快速上手和进行二次开发。
  • PyTorch 支持:增加了模型的可扩展性和兼容性。

可能的应用场景

  • 机器人操作:如抓取、搬运等任务。
  • 机器人导航:根据环境信息和语言指令进行导航。
  • 机器人学习:作为基础模型进行进一步的研究和开发。

环境要求

  • GPU 要求:运行模型需要 NVIDIA GPU,不同模式对内存的要求不同,具体如下:
    • 推理:> 8 GB,如 RTX 4090。
    • 微调(LoRA):> 22.5 GB,如 RTX 4090。
    • 微调(Full):> 70 GB,如 A100 (80GB) / H100。
  • 操作系统:仅支持 Ubuntu 22.04。

安装步骤

  1. 克隆仓库并更新子模块:
git clone --recurse-submodules git@github.com:Physical-Intelligence/openpi.git
# 或者如果你已经克隆了仓库
git submodule update --init --recursive
  1. 使用 uv 管理 Python 依赖:
GIT_LFS_SKIP_SMUDGE=1 uv sync
GIT_LFS_SKIP_SMUDGE=1 uv pip install -e .
  1. 也可以使用 Docker 进行安装,具体步骤见 Docker Setup。

模型检查点

  • 基础模型:提供 π₀、π₀ - FAST 和 π₀.₅ 的基础模型检查点,可用于微调。
  • 微调模型:提供针对不同机器人平台和任务的微调模型检查点,可直接在目标机器人上运行。

推理和微调示例

  • 推理:提供了预训练模型推理的代码示例,可在 example notebook 中进行测试。
  • 微调:以在 LIBERO 数据集 上微调 π₀.₅ 模型为例,详细介绍了数据转换、训练配置和推理的步骤。

http://www.wxhsa.cn/company.asp?id=5276

相关文章:

  • 每日一家公司职场内幕——龙旗科技(上海)
  • 0129_迭代器模式(Iterator)
  • HJ7 取近似值
  • 读人形机器人13艺术领域
  • 活动报名:Voice First!Demo Day@Voice Agent Camp,9.22,上海丨超音速计划 2025
  • Windows计算器:现代C++实现的多功能计算工具
  • 使用 PySide6/PyQt6 实现系统图标的展示与交互
  • 如何让Java的线程池顺序执行任务 ?
  • Git 提交排除文件夹方法总结
  • 如何在 Ubuntu24.04 TLS 上安装 Kubernetes 集群 - Antonie
  • Jmeter的插件开发
  • Educational Codeforces Round 182 (Rated for Div. 2)
  • java第二周课前提问
  • java GC
  • Redis最佳实践——性能优化技巧之监控与告警详解
  • week1
  • EF Core 与 MySQL:迁移和关系配置详解
  • 《原子习惯》-读书笔记2
  • CF1626D 题解
  • Python 集合运算:并集、交集、差集全解析
  • 第一周数据可视化作业
  • 用 C++ + OpenCV + Tesseract 实现英文数字验证码识别
  • java 第一节课课前提问
  • 二进制解码器、选通器和分配器
  • 2025最新版 Photoshop软件免费下载安装完整教程(PS2025)超详细安装教程
  • nac一键卸载软件脚本
  • 交叉编译openharmony版本的openssh
  • 为什么不建议在 Docker 中跑 MySQL
  • CFD
  • [MCP][05]Elicitation示例