首页开发者分成

发布您的采集工具,赚取 10% 的收益分成

将您的Playwright、Puppeteer 或Python爬虫发布至CoreClaw商店,让您的代码为您带来持续的被动收入。加入我们日益壮大的爬虫商店,与100多位开发者一同构建数据提取工具。

  • 10万+每月成功交付数据记录
  • 100+活跃开发者数量
  • 每条成功记录享10%收益分成
  • 24小时平均审核时长
您的10%收益分成
$245.00

源自成功的抓取记录

脚本名佣金
Google 搜索
用户使用总量:45,000
+$40.00
YouTube 频道
用户使用总量:30,000
+$27.00
TikTok 个人资料
用户使用总量:58,000
+$52.00
本月总计
用户使用总量:133,000
+$119.00
注:此数据代表了我们表现最佳的抓取工具在单月内的统计结果。
如何赚取

如何通过您的爬虫赚取10%的收益

您负责构建,我们负责运营;每当用户接收到一条成功的数据记录,您即可从中赚取10%的收益分成。

等级
类型
月度成功记录数
您的 10% 收益分成
顶尖级
高需求爬虫
10万–15万条记录
约 $89–$134/月
成长级
您的首个爬虫
1万–2万条记录
约 $9–$18/月
入门级
热门细分领域爬虫
3万–5万条记录
约 $27–$45/月

公式: 用户实际支出(成功记录数 × 单条记录单价)× 10% = 您的收益分成

为何发布

专注开发,收入自动赚取

你拥有核心逻辑和用户体验;我们负责执行、营销和支付

你专注于

将时间集中在产品本身,同时我们持续研究结果质量。

  • 数据提取逻辑
  • 数据解析与清洗
  • 功能迭代
  • 文档编写
  • 社区支持

我们负责

基础设施、合规和运营全部由公司管理。

  • 代理轮换(住宅IP)
  • 反爬虫绕过(验证码解决、指纹伪装)
  • 云端扩展(自动扩展以处理需求)
  • 计费与支付(全球提现)
  • 营销分发(SEO、首页推荐)

CoreClaw

基础设施包含:

  • 无服务器环境,自动扩展
  • 自动重试与错误处理
  • Webhook 与 API 交付
  • 内置代理池(10M+ IP)
  • 实时日志与分析
  • 99.9% 正常运行时间 SLA
开发者体验

使用你熟悉的工具进行开发

Python (Scrapy, BeautifulSoup, Selenium, Requests, Playwright)
Node.js (Playwright, Puppeteer, Cheerio, Axios)
Go (Colly, Rod)
Docker (自定义容器)
Python
Node.js
Go
#!/usr/bin/env python3
import requests
import json
from typing import Dict, Any, Optional

# API URL
API_URL = "https://openapi.coreclaw.com/api/v1/scraper/run"

# Your API KEY
API_KEY = "<YOUR_API_KEY>"

# Curl timeout (seconds)
TIMEOUT = 30

def run_scraper(params: Dict[str, Any], api_key: str) -> Dict[str, Any]:
    headers = {
        "api-key": api_key,
        "Content-Type": "application/json"
    }

    try:
        # Send POST request
        response = requests.post(
            API_URL,
            headers=headers,
            json=params,
            timeout=TIMEOUT
        )

        # Check HTTP status code
        if response.status_code != 200:
            return {
                "success": False,
                "run_slug": None,
                "error": f"HTTP error: {response.status_code} - {response.text}"
            }

        # Parse response
        result = response.json()

        # Check business error code
        if result.get("code") != 0:
            return {
                "success": False,
                "run_slug": None,
                "error": f"Business error: {result.get("message", "Unknown error")} (code: {result.get("code")})"
            }

        # Return success result
        return {
            "success": True,
            "run_slug": result.get("data", {}).get("run_slug"),
            "error": None
        }

    except requests.exceptions.Timeout:
        return {
            "success": False,
            "run_slug": None,
            "error": f"Request timeout after {TIMEOUT} seconds"
        }
    except requests.exceptions.RequestException as e:
        return {
            "success": False,
            "run_slug": None,
            "error": f"Request error: {str(e)}"
        }
    except json.JSONDecodeError as e:
        return {
            "success": False,
            "run_slug": None,
            "error": f"JSON decode error: {str(e)}"
        }

def main():
    # Build request parameters
    request_params = {
        "scraper_slug": "01KG3VTPJMC1AYPTBPACKQKJBV",
        "version": "v1.0.7",
        "input": {
            "parameters": {
                "system": {
                    "proxy_region": "",
                    "cpus": 0.125,
                    "memory": 512,
                    "execute_limit_time_seconds": 1800,
                    "max_total_charge": 0,
                    "max_total_traffic": 0
                },
                "custom": {
                   "url": [
                       {
                           "url": "https://www.facebook.com/share/p/1K6xfHFkrK/",
                           "comments_sort": "All comments",
                           "limit_records": "",
                           "get_all_replies": ""
                       }
                   ]
               }
            }
        },
        "callback_url": "https://your-domain.com/callback"
    }

    # Send request
    print("Sending request to API...")
    result = run_scraper(request_params, API_KEY)

    # Handle result
    if result["success"]:
        print("Scraper run successful!")
        print(f"Run ID: {result['run_slug']}")
        print("You can use this ID to query run status and results")
    else:
        print("Request failed!")
        print(f"Error message: {result['error']}")

if __name__ == "__main__":
    main()
成功案例

开发者赚取10%营收分成

面向开发者的营收分成平台,将你的代码转化为持续收入

Diana
Diana
逆向爬虫工程师
电商监控
工具
Amazon价格与评论追踪器
月产出
25,000条记录
月收入
约$22

"周末构建的项目。现在足够支付每月的咖啡开销。"

Alex
Alex
数据工程师
获客专家
工具
Google Maps商家提取器
月产出
50,000条记录
月收入
约$45

"将副业项目转化为可持续的业务,足以支付我的电话账单。"

2人团队
2人团队
个人工作室
社交媒体套件
工具
Facebook + YouTube监控套件
月产出
850,000条记录
月收入
约$760

"CoreClaw带来客户。我只需要维护代码。"

变现流程

从代码到现金流

从编写代码到收益分成,一站式变现解决方案

1

开发构建

利用我们的 SDK 及您熟悉的工具(如 Playwright、Puppeteer、Python)进行本地开发。通过真实代理和反爬虫防护机制进行测试,产出高质量且有效的数据记录。

Playwright
Puppeteer
Python
Google Maps Lead Collection
Extract business names, phones, websites, ratings, reviews.
2

提交审核

绝大多数审核工作均可在 24 小时内完成。代码审核涵盖功能性检查、数据质量验证以及成功率优化等环节。

Code verification
1  // CoreClaw SDK Code
2  import { Worker } from 'cafe-scraper';
3
4  Worker.main(async () => {
5    const input = await Worker.getInput();
6    const browser = await Worker.launch();
7    const page = await browser.newPage();
3

开始创收

您的工具正式上线运行,用户开始使用;针对所有成功获取的数据记录,您将获得其中所消耗积分总额的10%作为收益。

Your toolsGoes Live
10% Share
FAQ

常见问题

你将从你在商店中的爬虫产生的总收入中赚取10%。收入基于成功交付的数据记录计算,而不是基于运行尝试。如果用户运行你的爬虫100次但只获得50条成功记录,你将从这50条记录中赚取10%。