Meta 出于多种目的使用了网页爬虫(从网站或网页应用获取内容的软件)。本页列出了多个用户代理 (UA) 字符串,用于识别 Meta 最常见的网络爬虫以及每个爬虫的用途。本页还针对如何配置您的 robots.txt 文件提供了指导,以便我们的爬虫与您的网站进行正确的互动。
FacebookExternalHit 的主要目的是抓取在 Meta 旗下应用之一(例如 Facebook、Instagram 或 Messenger)中所分享的某个应用或网站的内容。所用链接可能是通过复制和粘贴或通过使用 Facebook 社交插件分享而来。此网络爬虫会收集、缓存和显示该应用或网站的相关信息,如名称、描述和缩略图等。
您将在日志文件中看到特定的 UA 字符串,类似于以下字符串之一:
facebookexternalhit/1.1 (+http://www.facebook.com/externalhit_uatext.php)
facebookexternalhit/1.1
facebookcatalog/1.0
请注意,FacebookExternalHit 爬虫在执行安全或诚信检查(例如检查是否存在恶意软件或恶意内容)时,可能会绕过 robots.txt 文件。
Range
标头中的指定字节,生成并返回带有所有必要属性的响应,或应一并忽略 Range
标头。如果应用或网站内容在爬取时不可用,您可以在内容可用时,通过在分享调试器工具中传递网址或使用共享 API 来强制爬取。
您可使用以下代码模拟网络爬虫请求:
curl -v --compressed -H "Range: bytes=0-524288" -H "Connection: close" -A "facebookexternalhit/1.1 (+http://www.facebook.com/externalhit_uatext.php)" "$URL"
Meta-ExternalAgent 爬虫会抓取网页,用于各种用例,例如训练 AI 模型或通过将内容直接编入索引来改进产品。
您将在日志文件中看到特定的 UA 字符串,类似于以下字符串之一:
meta-externalagent/1.1 (+https://developers.facebook.com/docs/sharing/webmasters/crawler)
meta-externalagent/1.1
此爬虫将在未来几周内逐步推出,预计在 2024 年 10 月 31 日前完成。
Meta-ExternalFetcher 爬虫执行用户发起的单个链接获取操作,以支持特定的产品功能。由于获取操作由用户发起,此爬虫可以绕过 robots.txt 规则。
您将在日志文件中看到特定的 UA 字符串,类似于以下字符串之一:
meta-externalfetcher/1.1 (+https://developers.facebook.com/docs/sharing/webmasters/crawler)
meta-externalfetcher/1.1
通过在您的网站上配置 robots.txt 文件,您可以向 Meta 网络爬虫指示您希望其如何与您的网站进行互动。如要屏蔽这些爬虫,可在 robots.txt 中为相关爬虫添加“Disallow”指令。Meta-ExternalFetcher 爬虫可以绕过 robots.txt,因为该爬虫执行的是用户请求的获取操作。此外,FacebookExternalHit 爬虫在执行安全或诚信检查时,可能会绕过 robots.txt。
User-agent: meta-externalagent Allow: / # Allow everything Disallow: /private/ # Disallow a specific directory
如果爬虫具有的一个源 IP 地址列于以下命令生成的清单上,这表示该爬虫来自 Meta。
whois -h whois.radb.net -- '-i origin AS32934' | grep ^route
请注意,这些 IP 地址经常发生更改。详情请访问我们的对等互联网页或相关的可下载数据(CSV 格式)。
... route: 69.63.176.0/21 route: 69.63.184.0/21 route: 66.220.144.0/20 route: 69.63.176.0/20 route6: 2620:0:1c00::/40 route6: 2a03:2880::/32 route6: 2a03:2880:fffe::/48 route6: 2a03:2880:ffff::/48 route6: 2620:0:1cff::/48 ...
如果您有问题或疑虑,请通过 webmasters@meta.com(Meta 网站站长)联系我们。