爬虫协议构成拒绝交易和歧视待遇的条件分析.pdf
- 1.请仔细阅读文档,确保文档完整性,对于不预览、不比对内容而直接下载带来的问题本站不予受理。
- 2.下载的文档,不会出现我们的网址水印。
- 3、该文档所得收入(下载+内容+预览)归上传者、原创作者;如果您是本文档原作者,请点此认领!既往收益都归您。
下载文档到电脑,查找使用更方便
2 0人已下载
| 下载 | 加入VIP,免费下载 |
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 爬虫 协议 构成 拒绝 交易 歧视 待遇 条件 分析
- 资源描述:
-
1、爬虫协议构成拒绝交易和歧视待遇的条件分析关键词 爬虫协议 反垄断法 拒绝交易 差别待遇作者简介:杨舒婷,中国科学院大学公共政策与管理学院,硕士研究生,研究方向:经济法。中图分类号:D920.4文献标识码:ADOI:10.19387/ki.1009-0592.2020.04.031爬虫协议是网站所有者利用 robots.txt 文档,设置搜索引擎机器人爬行其网络的指令。互联网经济的繁荣带来了大量的数据,而对数据的掌握成为了互联网平台经营者发展业务的关键保障。由此,网站与搜索引擎之间的沟通就变得尤为重要。作为互联网数据争夺的经典案例,百度公司诉奇虎公司不正当竞争案不仅在反不正当竞争法领域引起了广泛
2、讨论,也为研究反垄断法对互联网平台爬虫协议的规制提供了新的思考。网站所有者排斥搜索引擎企业的机器人爬取其网站的一些内容,往往在特定的相关市场占有市场支配地位,所以这种排斥爬行的行为是否违反反垄断法是值得研究的问题。若要深入了解搜索引擎与网站所有者之间的争议,仍然要从爬虫协议入手。一、爬虫协议的含义和性质爬虫协议,也称为机器人协议(robots 协议)。搜索引擎利用蜘蛛程序索引网站内容,垃圾邮件发送者也利用网络机器人扫描获取网页上的电子邮箱地址,此外这种程序还有很多其他用途。爬虫协议是指网站所有者利用 robots.txt 文档,向网络机器人给出网站指令(instructions)的协议。由于爬
3、虫协议的主要目的是明确排除网络机器人爬行的信息,甚至有的爬虫协议还会设置拒绝机器人爬行的搜索引擎名单,所以机器人协议也被称为拒绝机器人协议(robots exclusion protocol)。其工作原理是:当一个机器人想要访问一个网站的统一资源定位符(URL),如 http:/www.examp 时,它会首先检查 http:/ 这个地址,会发现“User-agent:*”或“Disallow:/”。其中,“User-agent:*”是说这个部分适用于所有的机器人,“Disallow:/”则告诉机器人不应该访问这个网站的所有网页。需要注意两点:一是机器人能忽略爬虫协议,尤其是恶意的机器人能扫描
4、网站的安全漏洞,收集电子邮箱地址的垃圾邮件商也不理会爬虫协议;二是爬虫协议文档还是公开的文档,任何人都能看到一个网站所有者不希望机器人爬取的部分。爬虫协议本质上是一个事实标准(de-facto standard),并且不为任何标准组织所拥有。从技术上看,爬虫协议不具备强制实施的可行性,即爬虫协议不能通过技术手段阻止网络机器人爬行网页。换言之,即使爬虫协议文本明示了禁止网络机器人爬取的内容,搜索引擎企業的爬取机器人也可以仅仅凭借“无视”,就可以轻易地使这种禁止失去效果。2012 年 11 月 1 日,国内多家搜索引擎服务企业发起签署了一份由中国互联网协会予以发布的互联网搜索引擎服务自律公约。该自
5、律公约中第 7 条约定,提供搜索服务的企业要“遵循国际通行的行业惯例与商业规则,遵守机器人协议(robots 协议)。”这说明,关于网页内容爬取规则的标准,爬虫协议是一种互联网行业国际通行的行业惯例和商业规则,搜索引擎企业应当遵守。综上,一方面,作为事实标准的爬虫协议,是互联网行业国际通行的行业惯例和商业规则,搜索引擎企业应当遵循;另一方面,网站所有者设定 Robots,应当遵循促进信息自由流动的原则,力求网络信息公平和开放,不应当使用不合理的手段限制搜索引擎爬取网站的内容,更不能通过设定 Robots 限制和排斥竞争。二、爬虫协议构成拒绝交易的条件反垄断法意义上的拒绝交易,泛指一切有可能排除
6、、限制竞争的拒绝交易形式。它既包括直接拒绝交易,也包括变相拒绝交易;既包括拒绝与竞争对手进行交易,也包括拒绝与非竞争对手进行交易;既包括中断交易,也包括拒绝与新的交易对象交易。在互联网环境下,互联网平台经营者拥有可以自由设置“拒绝进入”的能力,极易触及拒绝交易的底线。笔者前文在分析协议内容本身是否违法的时候也提到过,爬虫协议中设置拒绝被爬取是否构成拒绝交易行为,需要按照拒绝交易行为的构成要件进一步讨论。(一)相关市场的界定在曾经较为传统的实体市场里,能够根据产品的性能、用途等不同来区分市场,不同用途、不同功能的产品之间的边界也比较容易区分。而在以数据资源为重心的互联网市场中,因为数据产品的技术
7、、业务特征等相似,不同产品之间的功能界定比较困难,例如搜索引擎与社交网站之间的产生内容爬取纠纷,相关市场的界定就没有了清晰的标准,使用供给替代法、需求替代法、SSNIP(假定垄断者测试)等传统方法也可能会界定结果不够完美。在百度诉奇虎案中,百度是大众熟知的搜索引擎服务商,但引发诉讼的是奇虎对百度搜索引擎下的内容栏目的不当爬取行为,那么在界定本案相关市场的时候,就不能单凭百度和奇虎是搜索引擎服务提供商来界定相关市场,而是针对双方之间存在竞争关系的市场进行具体区分。而且在目前的互联网经营活动中,数据往往成为平台竞争的核心要素,因此,经营者面临的风险从传统单边市场中单一的风险变成了双边市场条件下多样
8、的竞争风险。而且,网络效应会使用户的选择产生拉大竞争者之间的差距的效果,并可能因此形成新的市场壁垒,对市场竞争带来损害。(二)行为人是否具有市场支配地位判断网站经营者是否具备市场支配地位,首先要看经营者在相关市场中的份额,我国现行反垄断法第十九条也列举了判断经营者具有市场支配地位的条件。互联网平台经营者与传统经营者的经营方式的不同,带来了对其市场份额准确判断的难度。由于滥用市场支配地位的垄断行为,首先必须具备有效的市场支配能力,但互联网平台带来的市场是一个多元化的、信息不平衡且极其复杂的市场,在互联网经济中占据很大的支配地位要具备的不仅仅是获利数额大,还要有庞大的、属于自己的且能够支配的网络资
展开阅读全文
课堂库(九科星学科网)所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。


2019届人教A版数学必修二同步课后篇巩固探究:2-1-1 平面 WORD版含解析.docx
部编人教版三年级语文上册《10 在牛肚子里旅行》教学课件小学优秀公开课.pptx
