找律师小程序开源项目,找律师小程序开源项目可靠吗

时间:2023-01-21 11:03:12来源:法律常识

丰色 Alex 发自 凹非寺

量子位 | 公众号 QbitAI

距离正式发布才刚4个月,GitHub Copilot即将迎来一场集体诉讼

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

发起人是一位干了20多年的程序员,来自美国的马修·巴特里克(Matthew Butterick)

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

他早在今年6月就“捶”了Copilot的开源许可证问题。

现在,马修终于决定迈出实质性的一步,在迅速激活自己的律师资格证后,和其他几位律师一起合作“声讨”Copilot。

(这位老哥身兼数职,除了这俩身份还是设计师)

他在一篇专门的个人博客中细究了Copilot涉及的两大法律问题,并指出Copilot不仅是“偷代码”那么简单,还会对整个开源社区造成诸多不良影响:

或许你不介意它未经许可就用了你的开源代码,但如果它也将由此抹去你和开源社区之间的联结呢?

(若不明白这句话具体何义,请接着往下看~)

目前,这篇博客已在推特上得到了不少关注和转发。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

相关消息还引爆了Hacker News社区。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

Copilot有哪些问题?

先给不熟悉的朋友简单介绍一下Copilot。

它是内嵌在Visual Studio等IDE中的一个代码自动补全工具,支持多种主流编程语言。

根据已写的内容,它可以给出后续代码建议——不过和我们见到的普通自动补全功能不同,它可以生成诸如整个函数体这样的大段代码

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

今年6月,Copilot在经过一年的免费试用后正式转为付费工具,定价为10美元/月(人民币约67元),年付则是100美元/年(人民币约669元)

它的到来,让很多人都感叹入门级别的程序员没有用了。

不过问题也随之而来。

Copilot强大的编码能力来自于一个叫做Codex的AI,由OpenAI开发并授权给微软。

Codex是怎么训练的呢?

尽管微软含糊其辞,表示它的训练源是数亿行公共代码;但Copilot的研究员还是道出了实情,都是出自于Github上的公共仓库。

好了,马修要状告Copilot的第一个问题,也就跟Copilot的训练过程有关

马修表示,微软和OpenAI要想用Github上的开源仓库进行训练,要么遵守它们的开源许可证协议,要么「合理使用」。

如果是前者,微软和OpenAI应该至少发布大量的attri­bu­tion来获得许可,但是大家没有看到。

他们将自己归到了后者,如GitHub前CEO Nat Fried­man在Copilot的技术预览会所说:

在公开数据上训练(机器学习)系统属于合理使用。

不过,软件自由保护组织(Software Freedom Conservancy,SFC)不同意这一“空口无凭”的说辞,要求他们提供法律依据来支撑自己的立场。

但是迟迟没有得到答案。

马修表示,这就是因为微软和OpenAI给不出来啊。

第二个可能违法的问题,则是关于Copilot的使用

马修指出,微软在面对Copilot用户时对自己进行了免责。

微软将Copilot给的代码称为“建议”,称自己不从中主张任何权力,也不对它生成的代码作任何关于正确性、安全性和产权相关的保证。

一旦你接受了Copilot给出的“建议”,如果出了问题都由你自己负责。

乍一听还好,可是不止一人发现Copilot一字不差地把原作者的代码当成“建议”丢给用户,连注释都一并奉送的那种。

这要是直接采纳可就要涉及许可问题了,可是Copilot根本不会注明这些代码的来源,又该让用户如何遵守协议呢?

以上,便是马修要控诉的两大问题。

除此之外,他还表达了对开源社区文化的担忧。

他认为,Copilot的所作所为直接在程序员和开源社区之间砌起了一堵墙,让程序员只管任意享用现成代码,远离源代码本身,失去与源项目的问题讨论、bug跟踪等互动和贡献。

而这对开源社区将是一个永久的、痛苦的损失。

另一边,对于“无故”奉献了训练代码的开源作者来说,他们俨然被当作了资源的生产者。

马修将这类人比喻成奶牛,由于Copilot对他们的项目没有任何贡献,他表示这奶牛是只出奶却不被提供食物和住所的奶牛。

因此,他也将Copilot的本质,比喻为寄生虫。

此外,你可能听闻有人出于愤怒将自己的代码搬出了GitHub。

马修告诉大家:其实微软通过声称训练AI是合理使用,正在搜索网上任何可以使用的公共代码进行训练。

可以说是“逃无可逃”。

于是在避免伤害变得无法弥补之前,马修声称必须弄清Copilot的合法性。

他呼吁以下几类人群加入他们的调查和诉讼队列:

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

当然在博客最后,马修还是特别声明:

我本身并不反对AI辅助编程工具。

他提到,Copilot本可以也很容易变得“友好”,比如让作者自愿参与,或者有偿征用

质疑声从未停止

这次,看到有人带头牵起对Copilot的集体诉讼,许多程序员以及计算机相关领域的大佬们纷纷表示:

“附议!”

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

消息出来之后,德克萨斯A&M大学的一位计算机科学教授,并兼任ACM、IEEE和SIAM会员的Tim Davis顺势发推分享了自己的“遭遇”:

Copilot没有拿到LGPL许可证(函数库公共许可证),就擅自发出了大段我的版权代码。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

并附上了证据:

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

△ 左为Copilot给出的代码,右为他自己的代码

有网友表示:

Copilot的这种行为属于是完全不尊重开源社区。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

还有网友犀利地指出,在模型训练过程中,所谓的AI“学习”,本身就是一种被勉强挪用过来的概念:

因为据现有法律,人类阅览受版权保护的资料用于自己学习,是合法的;然后各大科技公司说,AI也会“学习”,所以AI也没有违反版权法。

但是AI并不像人类那样自主(尽管很多公司称AI很自主),这些模型其实都被背后的组织或公司等操控着,所以用“学习”来描述AI做的事并不太准确。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

而且真人其实也经常出现会违反版权法等问题……

所以,要定义AI在“学习”过程中到底是否“抄袭”了,以及存在具体哪种侵权行为,是一个非常棘手的问题,还需要更多的讨论和明确规定。

诚然,Copilot从去年的内测阶段起,其出色的编程能力确实惊艳了不少人。

而且这个AI后来还学会了“反向输出”:

用“人话”来讲解某一段代码有什么用,帮助屏幕前的人看懂代码。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

但另一方面,不只现在,其实从Copilot刚出来开始,一直就有众多质疑和反对的声音,核心都不外乎马修在前文举证的那两点。(即这个AI的训练和使用)

也正如前文所说,除了个人,还有SFC等组织也在声讨Copilot。

而在今年6月份,GitHub宣布Copilot结束内测,开启收费模式后,更是将大家的不满情绪拔到了最高点。

除了免费引流再收费的商业模式让人反感外,大家一致认为这的AI用开发者写的代码来训练,不应该回过头向再开发者收费:

每一个曾向GitHub提交过代码的人都应免费使用!

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

于是,Copilot正式版立刻遭到了抵制——

SFC不仅自己要退出GitHub,而且还号召其他软件开发商同样照做。

在VS Code插件市场上,Copilot原本一直是5星好评,也一下子涌入了不少一星差评。

One More Thing

本次事件还让人把目光延伸到了AI绘画领域,有网友认为:

这种工具同样也涉及侵权等问题。

Copilot要摊官司!20年老程序员重新激活律师证,发起集体诉讼

最后,对于“大伙儿现在联合把Copilot告上法庭”这件事,你觉得赢的胜算大吗?

参考链接:
[1]https://githubcopilotinvestigation.com/
[2]https://twitter.com/DocSparse/status/1581461734665367554
[3]https://news.ycombinator.com/item?id=33240341

随便看看
本类推荐
本类排行
热门标签

劳动者 交通事故 北京征地拆迁律师事务所前十名 用人单位 劳动合同 债务人 协议 土地 自诉 房屋 补偿费 案件 债务 打官司 离婚协议书 债权人 公司 找律师可靠吗 北京十大刑事律师事务所排名搜狐 刑事案件 合同 甲方 最低工资标准 律师办理建设工程法律业务操作指引二 交通 车祸 北京十大房产纠纷律师事务所排名 补助费 工资 北京房产纠纷最好的律师事务所 债权 律师自己打官司是不是不用找律师 鉴定 伤残 程序 条件 北京房产纠纷律师事务所排名前十名 拆迁人 期限 兵法