📢 转载信息
原文链接:https://www.kdnuggets.com/7-free-remote-mcps-you-must-use-as-a-developer
原文作者:Abid Ali Awan
Image by Author
# 引言
在本地机器上设置模型上下文协议(MCP)服务器可能会很棘手。您需要处理安装各种包、管理 Node/nvm 版本、修复 PATH 问题,以及在遵循所有设置步骤后仍然无法启动的服务器故障。尽管遵循了指南,本地托管仍然可能很复杂且耗时。
一个更简单的解决方案是使用远程托管的 MCP 服务器。您可以通过使用 URL 和 API 密钥或 OAuth 令牌简单地连接到这些服务器。这意味着您不必担心在本地设置任何东西、处理依赖问题或不断管理进程。在许多情况下,远程服务器比尝试在自己的计算机上运行所有内容更快、更可靠。
在本文中,我们将探讨七个免费的远程 MCP 服务器,它们简化了规划、设计、编码和研究在无缝工作流程中的管理。您将了解到它们的使用场景以及它们提供的关键功能。
# 1. GitHub
由 GitHub 托管的远程 GitHub MCP 服务器,通过一键式 OAuth 设置和自动更新,提供了将兼容 MCP 的助手和 IDE 连接到您的 GitHub 工具的最简单方法。
连接后,您的助手可以直接从聊天或编辑器与存储库、问题和拉取请求进行交互。它甚至可以自动化工作流程,例如打开拉取请求、启动持续集成以及执行安全分类,从而让您在减少上下文切换的情况下更快地交付代码。
MCP 服务器支持 OAuth 2.1 和 PKCE,并与第一方 Copilot IDE(包括 VS Code、Visual Studio、JetBrains、Eclipse 和 Xcode)集成,确保了流畅的设置体验。
{ "mcpServers": { "github": { "url": "https://api.githubcopilot.com/mcp/", "headers": { "Authorization": "Bearer YOUR_GITHUB_PAT" } } } }
# 2. Canva
Canva MCP 服务器 在您的 AI 助手(如 Claude 或 Cursor)和 Canva 之间提供了无缝的连接。这种集成通过允许您轻松生成新设计来增强您的设计体验。
通过 MCP 服务器,您可以自动使用您的独特内容填充模板,并将结果轻松导出为图像或 PDF。这简化了设计流程并节省了宝贵的时间。
此外,该服务器有助于处理现有设计。您可以总结它们或基于现有内容生成新内容。这意味着您可以保持流畅的工作流程,无需在不同工具之间切换,使您的创意过程在编辑器或聊天环境中得以延续。
{ "mcpServers": { "Canva": { "command": "npx", "args": [ "-y", "mcp-remote@latest", "https://mcp.canva.com/mcp" ] } } }
# 3. Figma
Figma MCP 远程服务器(公开测试版)使用 OAuth 和共享链接,将 VS Code、Cursor 和 Claude Code 等工具中兼容 MCP 的助手直接连接到您的 Figma 文件。
此集成允许您从选定的框架生成代码,提取变量、组件和布局元数据,检索 Make 资源,并通过 Code Connect 确保输出与您的设计系统保持一致。
因此,团队可以在不需要桌面应用程序的情况下将准确的设计上下文整合到他们的 IDE 中,减少交接摩擦,并从原型到生产更快地迭代。
{ "inputs": [], "servers": { "figma": { "url": "https://mcp.figma.com/mcp", "type": "http" } } }
# 4. Notion
Notion MCP 服务器 是一项托管服务,通过简单的“一键式”OAuth 流程,将 ChatGPT、Claude 和 Cursor 等流行的 AI 助手安全地连接到您的工作区。此集成提供对您的页面和数据库的实时读写访问权限,以及专为 AI 代理设计的工具。
连接后,您可以搜索整个工作区,根据搜索结果创建新页面,并跨多个页面更新属性。通过结合这些功能,您可以直接从编辑器或聊天中自动化文档、规划和任务更新。这最大限度地减少了上下文切换并简化了您的工作流程。
{ "mcpServers": { "Notion": { "url": "https://mcp.notion.com/mcp" } } }
# 5. Hugging Face
Hugging Face MCP 服务器 将您的兼容 MCP 的助手直接连接到 Hugging Face Hub。这允许您直接从编辑器、聊天或命令行界面 (CLI) 搜索和探索模型、数据集、Spaces 和论文。它支持 VS Code、Cursor、Zed 和 Claude Desktop 等流行客户端。
此外,它使您能够通过托管在 Spaces 上的 MCP 兼容 Gradio 应用来运行社区工具,并将结果连同丰富的元数据、链接和上下文返回到您的助手。这些功能简化了模型和数据集的发现、评估和快速原型设计,而无需上下文切换,使研究和实施保持在一个集成的工作流程内。
{ "mcpServers": { "hf-mcp-server": { "url": "https://huggingface.co/mcp?login" } } }
# 6. Linear
Linear MCP 为您的 AI 助手提供对其 Linear 工作区的优先访问权限,允许您使用自然语言管理软件项目和跟踪问题。
您可以轻松查找、创建和更新 Linear 对象,例如问题、项目和团队。此外,它使您能够直接从 Claude、Cursor 和 Windsurf 等客户端自动化常见任务。
此集成将 Linear 带入您的编辑环境,增强了您的开发体验,并简化了规划、分类和状态更新。
{ "mcpServers": { "linear": { "command": "npx", "args": ["-y", "mcp-remote", "https://mcp.linear.app/sse"] } } }
# 7. Firecrawl
Firecrawl MCP 服务器 可用于本地和远程使用,集成了 Firecrawl API,为 LLM 客户端提供强大的网页抓取、爬取和搜索功能。您可以在 GitHub 上找到它。
除了基本的抓取之外,它还提供 JavaScript 渲染、批量抓取和搜索功能等特性。它支持自托管选项,并包括并行处理、自动重试和内容过滤等高级功能。
Firecrawl 专为 AI 工作流程设计,可以获取和构建网页内容到机器可读的格式(如 Markdown、JSON 或 HTML),确保可靠的内容提取。
它通常用于增强 Cursor 和 Claude 等工具,为模型上下文添加实时网络数据。
{ "mcpServers": { "firecrawl-mcp": { "command": "npx", "args": ["-y", "firecrawl-mcp"], "env": { "FIRECRAWL_API_KEY": "YOUR-API-KEY" } } } }
# 结论
集成 GitHub、Canva、Figma 和 Notion 等 MCP 服务器,将规划、设计、编码和研究简化为一个工作流程。这种整合减少了上下文切换并加速了交付。通过安全地基于 OAuth 进行访问,并且可以直接在您的编辑器或聊天中获取可操作的工具,您可以增强协作,并在整个产品生命周期中建立更快的反馈循环。
以下是 MCP 服务器的一些用例:
- GitHub: 从聊天/编辑器中打开 PR、分类问题和触发 CI,以实现更快交付。
- Canva: 在不离开 IDE/聊天的情况下生成设计、自动填充模板和导出资产(PNG/JPG/PDF)。
- Figma: 将框架转换为启动代码,并拉取变量/组件以实现设计系统一致的输出。
- Notion: 搜索、创建和更新页面,以自动化文档、任务和状态报告。
- Hugging Face: 发现模型/数据集/Spaces,并运行 Gradio 工具以进行快速评估和原型设计。
- Linear: 从您的助手创建/更新问题和项目,自动化分类和发布状态更新。
- Firecrawl: 使用 JS 渲染抓取/爬取站点,并将结构化的 Markdown/JSON/HTML 返回,以支撑 AI 回答。
Abid Ali Awan (@1abidaliawan) 是一位认证数据科学家专业人士,热衷于构建机器学习模型。目前,他专注于内容创作和撰写有关机器学习和数据科学技术的技术博客。Abid 拥有技术管理硕士学位和电信工程学士学位。他的愿景是为在心理健康方面遇到困难的学生构建一个使用图神经网络的 AI 产品。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区