crawl4ai 介绍
了解项目的详细信息和使用方法
Crawl4AI 是一个开源的 Python 库,旨在简化网络爬取并轻松从网页中提取有价值信息。无论您是将其集成为 REST API 还是直接在 Python 项目中使用,Crawl4AI都提供了一个强大、灵活和完全异步的解决方案,专为大型语言模型(LLMs)和 AI 应用量身定制。
简介
Crawl4AI旨在使网络爬取和从网页中提取数据变得简单高效。无论您是构建复杂的 AI 应用程序还是增强大型语言模型,Crawl4AI都提供了您需要简化工作流程的工具。通过完全的异步支持,Crawl4AI确保您的爬取任务快速、可靠和可扩展。
快速入门 🚀
在短时间内快速上手Crawl4AI!以下是一个展示其强大异步功能的简单示例:
python1import asyncio 2from crawl4ai import AsyncWebCrawler 3 4async def main(): 5 # 初始化异步网络爬虫 6 async with AsyncWebCrawler(verbose=True) as crawler: 7 # 爬取指定的 URL 8 result = await crawler.arun(url="https://www.nbcnews.com/business") 9 # 以 Markdown 格式显示提取的内容 10 print(result.markdown) 11# 执行异步主函数 12if __name__ == "__main__": 13 asyncio.run(main())
解释:
-
导入库:从
crawl4ai
库和asyncio
模块导入AsyncWebCrawler
。 -
创建异步上下文:使用异步上下文管理器实例化
AsyncWebCrawler
。 -
运行爬虫:利用
arun()
方法异步爬取指定的 URL 并提取有意义的内容。 -
打印结果:输出提取的内容,以 Markdown 格式呈现。
-
执行异步函数:使用
asyncio.run()
执行异步main
函数。
特点 ✨
Crawl4AI充满了旨在使您的网络爬取和数据提取任务无缝进行的功能:
-
🆓 完全免费和开源:没有隐藏成本或许可费用。
-
🚀 极速性能:以卓越的速度胜过许多付费服务。
-
🤖 LLM友好的输出格式:支持 JSON、清理的 HTML 和 Markdown。
-
🌍 并发爬取:同时爬取多个 URL,实现最大效率。
-
🎨 媒体标签提取:检索包括图像、音频和视频在内的所有媒体标签。
-
🔗 全面的链接提取:收集外部和内部链接。
-
📚 元数据提取:从网页中提取详细的元数据。
-
🔄 自定义钩子和身份验证:自定义标头、身份验证并在爬取之前修改页面。
-
🕵 ️ 用户代理定制:轻松模仿不同的浏览器或设备。
-
🖼 ️ 网页截图:捕获网页的视觉快照。
-
📜 JavaScript 执行:在爬取动态内容之前执行自定义 JavaScript。
-
📊 结构化数据提取:利用
JsonCssExtractionStrategy
进行精确的数据结构化。 -
📚 多功能分块策略:包括基于主题、正则表达式、基于句子等。
-
🧠 高级提取技术:具有余弦聚类和基于LLM的提取功能。
-
🎯 精确的 CSS 选择器支持:使用准确的 CSS 选择器定位特定数据点。
-
📝 基于指令的细化:传递指令或关键字以增强数据提取。
-
🔒 代理支持:通过代理配置增强隐私和访问权限。
-
🔄 会话管理:轻松处理复杂的多页面爬取场景。
-
🌐 完全异步架构:通过异步支持提升性能和可扩展性。
安装 🛠 ️
Crawl4AI提供灵活的安装选项,以满足各种用例。选择最适合您工作流程的方法:
使用 pip 🐍
基本安装
用于标准网络爬取和抓取任务:
typescript1pip install crawl4ai
默认情况下,这将使用 Playwright 安装 Crawl4AI 的异步版本进行网络爬取。
👉 注意:如果在安装过程中遇到与 Playwright 相关的错误,请使用以下方法手动安装 Playwright:
- 命令行:
typescript1playwright install
- 特定的 Chromium 安装:
typescript1python -m playwright install chromium
安装同步版本
如果您更喜欢使用 Selenium 的同步版本:
bash1pip install crawl4ai[sync]
开发安装
对于希望修改源代码的贡献者:
bash1git clone https://github.com/unclecode/crawl4ai.git 2cd crawl4ai 3pip install -e .
高级用法 🔬
通过这些高级功能和用例发挥Crawl4AI的全部潜力:
执行 JavaScript & 使用 CSS 选择器
通过执行自定义 JavaScript 和使用 CSS 选择器来增强您的爬取任务。
python1import asyncio 2from crawl4ai import AsyncWebCrawler 3 4async def main(): 5 async with AsyncWebCrawler(verbose=True) as crawler: 6 js_code = [ 7 "const loadMoreButton = Array.from(document.querySelectorAll('button')).find(button => button.textContent.includes('Load More')); loadMoreButton && loadMoreButton.click();" 8 ] 9 result = await crawler.arun( 10 url="https://www.nbcnews.com/business", 11 js_code=js_code, 12 css_selector="article.tease-card", 13 bypass_cache=True 14 ) 15 print(result.extracted_content) 16if __name__ == "__main__": 17 asyncio.run(main())
使用代理
通过代理路由您的爬取任务,增强隐私和访问权限。
python1import asyncio 2from crawl4ai import AsyncWebCrawler 3 4async def main(): 5 async with AsyncWebCrawler(verbose=True, proxy="http://127.0.0.1:7890") as crawler: 6 result = await crawler.arun( 7 url="https://www.nbcnews.com/business", 8 bypass_cache=True 9 ) 10 print(result.markdown) 11if __name__ == "__main__": 12 asyncio.run(main())
无需LLM提取结构化数据
使用JsonCssExtractionStrategy
通过 CSS 选择器精确提取结构化数据。
python1import asyncio 2import json 3from crawl4ai import AsyncWebCrawler 4from crawl4ai.extraction_strategy import JsonCssExtractionStrategy 5 6async def extract_news_teasers(): 7 schema = { 8 "name": "News Teaser Extractor", 9 "baseSelector": ".wide-tease-item__wrapper", 10 "fields": [ 11 {"name": "category", "selector": ".unibrow span[data-testid='unibrow-text']", "type": "text"}, 12 {"name": "headline", "selector": ".wide-tease-item__headline", "type": "text"}, 13 {"name": "summary", "selector": ".wide-tease-item__description", "type": "text"}, 14 {"name": "time", "selector": "[data-testid='wide-tease-date']", "type": "text"}, 15 { 16 "name": "image", 17 "type": "nested", 18 "selector": "picture.teasePicture img", 19 "fields": [ 20 {"name": "src", "type": "attribute", "attribute": "src"}, 21 {"name": "alt", "type": "attribute", "attribute": "alt"}, 22 ], 23 }, 24 {"name": "link", "selector": "a[href]", "type": "attribute", "attribute": "href"}, 25 ], 26 } 27 extraction_strategy = JsonCssExtractionStrategy(schema, verbose=True) 28 async with AsyncWebCrawler(verbose=True) as crawler: 29 result = await crawler.arun( 30 url="https://www.nbcnews.com/business", 31 extraction_strategy=extraction_strategy, 32 bypass_cache=True, 33 ) 34 assert result.success, "Failed to crawl the page" 35 news_teasers = json.loads(result.extracted_content) 36 print(f"Successfully extracted {len(news_teasers)} news teasers") 37 print(json.dumps(news_teasers[0], indent=2)) 38if __name__ == "__main__": 39 asyncio.run(extract_news_teasers())
利用OpenAI提取结构化数据
利用OpenAI的能力动态提取和结构化数据。
python1import os 2import asyncio 3from crawl4ai import AsyncWebCrawler 4from crawl4ai.extraction_strategy import LLMExtractionStrategy 5from pydantic import BaseModel, Field 6 7class OpenAIModelFee(BaseModel): 8 model_name: str = Field(..., description="OpenAI 模型的名称。") 9 input_fee: str = Field(..., description="OpenAI 模型的输入令牌费用。") 10 output_fee: str = Field(..., description="OpenAI 模型的输出令牌费用。") 11async def main(): 12 async with AsyncWebCrawler(verbose=True) as crawler: 13 result = await crawler.arun( 14 url='https://openai.com/api/pricing/', 15 word_count_threshold=1, 16 extraction_strategy=LLMExtractionStrategy( 17 provider="openai/gpt-4o", 18 api_token=os.getenv('OPENAI_API_KEY'), 19 schema=OpenAIModelFee.schema(), 20 extraction_type="schema", 21 instruction="""从爬取的内容中提取所有提到的模型名称以及它们的输入和输出令牌费用。 22不要错过整个内容中的任何模型。提取的模型 JSON 格式应如下所示: 23{"model_name": "GPT-4", "input_fee": "US$10.00 / 1M tokens", "output_fee": "US$30.00 / 1M tokens"}。""" 24 ), 25 bypass_cache=True, 26 ) 27 print(result.extracted_content) 28if __name__ == "__main__": 29 asyncio.run(main()) 30``````python 31import asyncio 32import re 33from bs4 import BeautifulSoup 34from crawl4ai import AsyncWebCrawler 35 36async def crawl_typescript_commits(): 37 first_commit = "" 38 async def on_execution_started(page): 39 nonlocal first_commit 40 try: 41 while True: 42 await page.wait_for_selector('li.Box-sc-g0xbh4-0 h4') 43 commit = await page.query_selector('li.Box-sc-g0xbh4-0 h4') 44 commit = await commit.evaluate('(element) => element.textContent') 45 commit = re.sub(r'\s+', '', commit) 46 if commit and commit != first_commit: 47 first_commit = commit 48 break 49 await asyncio.sleep(0.5) 50 except Exception as e: 51 print(f"Warning: New content didn't appear after JavaScript execution: {e}") 52 async with AsyncWebCrawler(verbose=True) as crawler: 53 crawler.crawler_strategy.set_hook('on_execution_started', on_execution_started) 54 url = "https://github.com/microsoft/TypeScript/commits/main" 55 session_id = "typescript_commits_session" 56 all_commits = [] 57 js_next_page = """ 58 const button = document.querySelector('a[data-testid="pagination-next-button"]'); 59 if (button) button.click(); 60 """ 61 for page in range(3): # Crawl 3 pages 62 result = await crawler.arun( 63 url=url, 64 session_id=session_id, 65 css_selector="li.Box-sc-g0xbh4-0", 66 js=js_next_page if page > 0 else None, 67 bypass_cache=True, 68 js_only=page > 0 69 ) 70 assert result.success, f"Failed to crawl page {page + 1}" 71 soup = BeautifulSoup(result.cleaned_html, 'html.parser') 72 commits = soup.select("li.Box-sc-g0xbh4-0") 73 all_commits.extend(commits) 74 print(f"Page {page + 1}: Found {len(commits)} commits") 75 await crawler.crawler_strategy.kill_session(session_id) 76 print(f"Successfully crawled {len(all_commits)} commits across 3 pages") 77if __name__ == "__main__": 78 asyncio.run(crawl_typescript_commits())
速度比较 🚀
Crawl4AI 专为速度和效率而设计,始终优于许多付费服务。以下是我们的性能基准的一瞥:
服务耗时内容长度发现的图片Firecrawl7.02 秒42,074 个字符49**Crawl4AI (简单爬取)1.60 秒18,238 个字符49Crawl4AI (带 JS 执行)**4.64 秒40,869 个字符89
要点:
-
简单爬取: Crawl4AI 比 Firecrawl 快 4 倍。
-
带 JavaScript 执行: 即使执行 JavaScript 来加载额外内容(图片数量翻倍),Crawl4AI 仍然比 Firecrawl 的简单爬取快得多。
要了解全面的比较,请查看我们在存储库中的 Crawl4AI vs. Firecrawl 示例。
参考资料
https://github.com/unclecode/crawl4ai