加入收藏 | 设为首页 | 会员中心 | 我要投稿 站长网 (https://www.92zhanzhang.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 移动互联 > 通讯 > 正文

网络爬虫无处不在,应当怎么规制?

发布时间:2021-10-30 14:20:01 所属栏目:通讯 来源:互联网
导读:技术是中立的,但技术应用永远不是中立的。新浪集团诉讼总监张喆表示,在讨论爬虫技术原理时,更重要的是看爬虫技术用来干什么,看它的行为本身是否具有正当性。 近期,北京市高级人民法院(下称北京高院)对今日头条诉微博不正当竞争案作出二审判决。此案中
“技术是中立的,但技术应用永远不是中立的。”新浪集团诉讼总监张喆表示,在讨论爬虫技术原理时,更重要的是看爬虫技术用来干什么,看它的行为本身是否具有正当性。
 
  近期,北京市高级人民法院(下称“北京高院”)对“今日头条诉微博不正当竞争案”作出二审判决。此案中,微博因在Robots协议中设置黑名单,限制字节跳动公司抓取相关网页内容被诉。法院认为,微博是在行使企业自主经营权范畴内的正当行为,并不构成不正当竞争,同时撤销一审判决等。张喆表示,司法机关对Robots协议评价是“一体两面”的。
 
  在2020年北京高院对“360诉百度不正当竞争案”做出判决时,认为百度在缺乏合理、正当理由的情况下,不得以主体作为区分,去限制访问搜索引擎抓取网站网页内容(太拗口了,简单点)。而在“今日头条诉微博不正当竞争案”中,法院确立的原则是,企业有权在自主经营范围内去限制其他访问者,只有在违反公共利益以及侵犯消费者权利的时候,才有可能被认定其行为不正当。
 
  在华东政法大学法律学院教授、数据法律研究中心主任高富平看来,爬虫和数据产业是连一起的,现在所谓的数据公司谈及的数据智能、大数据分析基本上是抓取数据,再进行挖掘分析。现在普遍认为爬虫是项中立性的技术,但更多时候,使用者是为实现‘不劳而获’的目的。

(编辑:站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!