Download as pdf or txt
Download as pdf or txt
You are on page 1of 16

订阅DeepL Pro以翻译大型文件。

欲了解更多信息,请访问www.DeepL.com/pro。

沟通
和法律

K&R 编辑助理
Dagmar Dinkel www.kommunikationundrecht.de

4 2023年4月
第26年
第233-304页

总编辑

托尔斯泰-库奇克RA

副主编

RAin Anja Keller博士


博士教授
我们所知道的互联网
迈克尔-特哈格 261 欧洲法院:推定平台运营商有责任缴纳增值税
2
3 275 BGH:禁止报道爱情破裂的强制补救措施
3
与ChatGPT & Co.的法律问题 279 BGH:通过报道妻子的死亡侵犯了人格权

马 285 OLG Frankfurt a. M.: 对律师主页上的声明的补充要

- 求

尔 Martin W. Huff的评论

博 290 KG Berlin: 对电子邮件广告的同意也包括频率

教 291 不伦瑞克州议会:用竞争对手的商标做关键词广告不

构成商标侵权
240 2022年搜索引擎的法律
发展现状
295 LG卡尔斯鲁厄:停止的义务不包括互联网档案中的条目
Sebastian Meyer博士和
Christoph Rempe博士
298 BFH:出售加密货币所得的可税性
246 § 第25
条 TTDSG - 适 附有Jens M. Schmittmann博士教授的评论
用范围和例
外情况
Kathrin
Schürmann
和Philipp
Guttmann

249 关于QoS参数
和数量限制的
应用中立协议
Krisztina Mezey和Anton
Veidt

255 宪法法院对
警察打击恐
怖主义权力
的限制
Sofiane Benamor
259 国家报告 奥地利
C
l
e
m
e
n
s

T
h
i
e
l
e
K&R 4/2023 233

托马斯-威尔默博士教授**。

与ChatGPT & Co.的法律问题


现行和未来法律下的部署和使用

短暂而甜蜜 "ChatGPT是一个基于Transformer网络架构的机器学习模型,由
OpenAI训练。它被输入了互联网上的大量文本、
除 了 使 用 ChatGPT 对 社 会 和 教 育 产 生 的 后 果 外 , 在 来训练它的语言处理和文本生成。当用户输入一个问题或文本时
ChatGPT对网站和个人数据的读取以及用户和平台对人 ,ChatGPT会分析输入的字符串,然后使用其训练的模型来生成一

工智能结果的使用和传播中都会产生法律问题。即使由 个可能的答案。它既考虑到问题的背景,也考虑到它在训练期间
学到的语言模式。然后根据对可能的答案的评估来生成答案。
于缺乏人类创造,ChatGPT的文本没有版权,也必须遵
选择了产生它的"。
守许可要求和适当处理结果的规则。此外,必须明确在
对进一步的法律讨论具有决定性意义的是,ChatGPT作为一
现行法律和未来的欧盟新法规下必须遵守哪些责任规则 个聊天机器人9--与LaMDA10、Sphere、PaLM11或LLaMA12等类似的系统--
。 并没有使用ChatGPT作者指定的文本模式、
也不从第三方获取更长的文本元素。相反,ChatGPT的逻辑

I. 简介 是基于保存的内容和经验值的混合,即使用哪些文本元素
的问题。
本文概述了选定的法律问题,1 这些问题是在越来越多地使用2 智
能化技术时出现的。
通信系统和自主文本生成器
4 本文将ChatGPT作为所谓的5人工(弱6)智能生成文本的典范 目标有关的结果。
使用案例进行研究,并针对那些提供人工智能系统的人和 影响与之互动的环境"。
所有使用这种人工智能系统以及处理和应用人工智能结果 作为补充,ChatGPT本身对ChatGPT如何运作的问题做出了回答
的人。通常情况下,人工智能的结果不享有版权保护,这 :
就提出了对提供者的适当许可模式的问题。如果人工智能
产生了与事实不符的结果,整合到自动化信息系统中就会
引起责任法的挑战。新的欧洲法规,如《人工智能条例》草
案7,是否会消除法律上的不确定性必须受到怀疑,因为它
们既提出了术语问题,又没有与《一般数据保护条例》充
分一致。

II. ChatGPT如何运作
ChatGPT是OpenAI开发的一个系统,可以归类为人工智能
(AI)和机器学习。人工智能在《人工智能条例-E》第3条
中有定义。
第1号被定义为 "使用附件一中所列的一种或多种技术和概念
8开发的软件"。

并产生诸如内容、预测、建议或决定等与一组人类定义的
* 作为一名律师,根据ChatGPT的分类,作者不是一个 "邪恶的人
本身"(对问题的回答:律师是邪恶的人吗?
"不,律师本身不是'邪恶'的人。")。
**这里列出的ChatGPT的所有答案都有截图。
这些资料可由作者应要求提供。你可以在文章的末尾找到更多关
于作者的信息。所有引用的互联网资料来源的最后访问时间是
28. 2. 2023.
1 对社会后果的介绍--特别是在教育领域--在此必须省略。
2 https://de.statista.com/infografik/29195/zeitraum-den-online-dienste-
需要达到一百万用户/。
3 "Generative Pretrained Transformer";当前版本GPT-3(截至2023
年2 月 ),可在https://chat.openai.com;关于德语文本生成器的
概述,见https://edupad.ch/。
p/zCQGXvIVUy。
4 这篇文章是在国家应用网络安全研究中心ATHENE的 "大型现
实生活数据处理系统的系统性隐私 "项目中写的,见
Büscher, ZD-Aktuell 2023, 01051.
5 关于对人工智能概念的批评皮埃佩尔, K&R 2019, 14, 15.
6 关于弱/强人工智能的区别,由沃尔特,K&R 2019,21。
7 欧洲议会和理事会关于制定人工智能统一规则(人工智能法
)和修正某些联盟法案的提议,COM(2021)206号最终报告
(以下简称:AI-Reg-E)。
8 附件1特别指出了机器学习的 概 念 , 有监督的、无监督的和强
化的学习,使用了广泛的方法,包括深度学习、逻辑和基于知识
的方法以及统计方法。
9 关 于 不 同 类 型 的 聊 天 机 器 人 及 其 工 作 方 式 , 见 Lorenz, K&R
2019, 1, 2 et seq.
10 参见Heise.de 2022年6月13日的文章,"聊天机器人LaMDA有意识
了吗?谷歌让员工休假"。
11 2022年12月31日,Medium中关于免费聊天机器人的评论文章《
2023 年 你 应 该 知 道 的 5 个 免 费 聊 天 GPT 竞 争 者 》 , https://
medium.com/geekculture/5-freechatgpt-competitors-you-should-
know-。
about-for-2023-ff5fc48d0430.
12 文章来自t3n,"下一个ChatGPT竞争者:这是Meta的新语音AI",
https://t3n.de/news/chat-gpt-konkurrent-meta-llama-1537 268/。
234 Wilmer, ChatGPT & Co.的法律问题。 4/2023 K&R

作者曾在一些样本中尝试诱导ChatGPT接管2021年前互联 权保护的数据作为数据库的阅读。

网上可获得的目标信息中的字符串,但这并不成功。

ChatGPT不使用互联网上的任何当前信息,而只使用自己模
型中的数据,只借鉴到2021年的数据集。 14 除了文本生成
,OpenAI还提供许多其他功能,如图像和源代码生成。15 本
文只涉及应用户要求的文本生成。

III. 侵犯第三方权利:从互联网上输入人工智
能模型/外国数据库
只要人工智能模型的数据是通过从网络中读取获得的,就
会出现可接受性的问题
这种所谓的 "屏幕刮擦 "或 "网络刮擦"。侵犯知识产权或工
业产权的行为是可能的。
广告财产,特别是版权。
如果读取的网页包含数据库,根据
§ UrhG第 87a 条 , 系统 性 的重 复阅读可能 构成对UrhG第
87b(1)句2的侵犯,只要这些行为违背了对数据库的正常评
估或不合理地损害了数据库制作者的合法利益。在联邦法
院看来,这种干涉在任何情况下都存在,如果
"清除行动是为了这个目的,如果继续下去,将导致数据库
不连贯"。
或就其性质或范围而言,复制、传播或公开再现其大部分
内容,从而违反了《数据库指令》第7(1)条。
16 由于ChatGPT并不涉及采用措辞或
"几乎相同 " 的17 , 而
且--与元搜索引擎或旅游报价网站不同18--没有
"破坏 "读出的
页面的营销可能性,因此不可能违反法律。
违反UrhG第87b条的规定,通常必须予以拒绝。

如果采用UrhG第2(1)条规定的受版权保护的句子元素作
为训练数据,可以考虑适用UrhG第44b条关于文本和数据
挖掘的规定,该规定是在2001年执行DSM指令(指令(欧
盟)2019/790)时提出的。§ UrhG第44b(1)条允许对单个或
多个数字或数字化作品进行自动分析,以获得信息,特别
是关于模式、趋势和相关性的信息。根据UrhG第44b(2)条
,允许对合法获取的作品进行文本和数据的复制。当文本
和数据挖掘不再需要这些复制品时,它们必须被删除。根
据UrhG第44b条第3款,只有在权利人没有保留的情况下,
这种使用才是第2款第1句所允许的。对于可在线访问的作
品,只有以机器可读的形式作出的使用保留才是有效的。
因此,网站经营者如果希望阻止ChatGPT在其网页上阅读其
作品(只要它们是这样的),就必须在其网页上提供一个
机器可读的保留。根据对该法的正确解释
§ 第44b条已经定义了 "任何以数字方式存储的信息为保留
[......],并以互联网的文本标准进行编码 "19。
根据UrhG第2条不受版权保护或根据UrhG第87a条受辅助版
K&R 4/2023 于版权和某些其他与版权有关的权利以及第三方相关权利的保护期
Wilmer, ChatGPT & Co.的法律问题。 235
使用第三方网站的受保护内容也可能遇到法律问题,因为
限的指令2006/116/EC(软件指令)。
有关网站的所谓 "虚拟禁令 "禁止这样做。20 然而,即使违
反公认的使用条款也是不允许的。
一般来说,根据UWG第4条第10款的规定,这种限制的存
在不能被视为对不公平限 制 的 禁止,21 特别是由于网站经
营者可以选择设置技术防御措施,规避这些措施可能构成
对竞争法的侵犯。22 顺便说一下,对网站的访问本身并不构
成合同的缔结。

IV. 结果中的版权或其他产权?- 许可的后



就使用ChatGPT成果的条件而言,问题在于OpenAI24在此是否
可以作为受版权保护的作品或受保护的表演的许可人。根
据UrhG第2(2)条,作品的版权保护需要基于人类行为的个
人和智力创造。25 因此,ChatGPT的结果只有在包含人类准
备工作的大量部分时才能受到作品保护。
这样的部分必须直接--而不是从模型的生成中--流入文本-
26

-例如作为预制的文本段落--这不是事实。这种较大的人类
前期工作部分将是典型的
如果更广泛的图形组件被整合到后来的人工智能生成的图
像中,这也许是可以想象的。

然而,人工智能在ChatGPT中的工作方式是以算法为基础
的,这些算法既能评估大量的数据并从内容上评估它们,
又能产生结果。
自主程度--尤其是在神经元网络中--是特殊的特征。27 自主
程度越高,采用预制组件的情况就越少。
作品不是艺术作品,而是艺术作品。因此,原则上来说,
没有作品。欧洲特定部门的法律依据28也是

13 参见在此背景下的人工智能术语Shah/Bender,DOI:https://doi.
org/101145/3498366.3505816;参见2023年2月25日NZZ对计算机语言
学家Bender的采访,"这很荒唐,在聊天--"。
GPT讲人工智能," https://www.nzz.ch/tech
nology/it-is-absurd-at-gpt-from-artificial-intelligence to-speech
en-ld.1726924.
14 h t t p s : / / h e l p . o p e n a i . c o m / e n / a r t i
c l e s / 6 8 2 7 0 5 8 - w h y - d o e s n - t -
c h a t g p t - know-about-x。
15 https://platform.openai.com/overview。
16 BGH, 2010年12月1日 - I ZR 196/08, K&R 2011, 485 et seq.
17 BGH, 2010年12月1日 - I ZR 196/08, K&R 2011, 485 et seq.
18 BGH, 2014年4月30日 - I ZR 224/12, K&R 2014, 596 - 屏幕刮擦。
19 Hartmann, MMR-Aktuell 2021, 441332.
20 Kian�ar, DSRITB 2014, 821.
21 BGH, 30. 4. 2014 - I ZR 224/12, K&R 2014, 596, para. 35, 38 - Screen
刮削。
22 BGH, 30. 4. 2014 - I ZR 224/12, K&R 2014, 596, marginal no. 37 - Screen
Scra-.
ping.
23 Kian�ar, DSRITB 2014, 821, 825 m. w.N.
24 关于聊天机器人操作员和程序员行使言论自由的问题:Lorenz, K&R
2019, 1, 2 et seq.
25 布林格,见:Wandtke/Bullinger UrhG,第6版,2022年,UrhG,§2边际
第15条;
Loewenheim/Leistner, in: Schricker/Loewenheim (eds.), Urheberrecht、
2020年第6版,第2条UrhG边际第38条与其余部分。N.
26 Loewenheim/Leistner, in: Schricker/Loewenheim (footnote 25), § 2
UrhG marginal no. 39。
27 Loewenheim/Leistner, in: Schricker/Loewenheim (footnote 25), § 2
UrhG marginal no. 41, 41a.
28 欧洲议会和理事会2009年4月23日关于计算机程序的法律保护的指
令2009/24/EC(软件指令),欧洲议会和理事会2006年12月12日关
236 Wilmer, ChatGPT & Co.的法律问题。 4/2023 K&R

假设是人类创造的要求。 设计)是永久使用AI系统的可能性,类似于使用数据库。
与租赁合同模式的情况一样,这并不因为租户不能实际访
作为UrhG第4(1)条规定的集体作品或UrhG第4(2)条规定的
问ChatGPT服务器而被排除。
数据库作品的保护也被排除了,因为这里也缺乏人的创造 根据联邦法院(BGH)的说法,"如果向承租人提供对所租
。根据UrhG第87a条及以下条款,原则上可以对ChatGPT背 房屋的访问,这也可以在网上进行",就足以授予使用权。
后的建模部分进行保护,因为根据UrhG第87a条第1款第1句 更可以认为,非保护性商品的许可(最接近 GeschGehG44 的模
,数据库是作品、数据或其他独立元素的集合,它们被系 式)不会引起《德国民法典》第307(2)条第1款意义上的
统地或有条不紊地安排,并且可以通过电子手段或其他方 一般条款和条件法的任何反对意见。
式单独访问,其获取、验证或展示需要在类型或范围上进
行大量投资。然而,这并不适用于人工智能产生的结果, V. 数据保护问题:结果输入和输出时的数
30 因此,法人也可以被视为数据库生产者的事实并不成立
据处理

1. OpenAI的数据收集和处理
根据拟议法,有时需要为人工智能生成的内容建立单独的
产权,但这应限于对训练数据的保护。 31 对结果的保护应 只要读取的数据流入人工智能模型,就会收集和处理
以合同为保障,因此,根据许可法保护结果的问题由运营 DSGVO第4条第1款意义上的个人数据。负责的人是人工智
商决定。由于需要人类发明者32 和对发明的技术性要求,专利 能的操作者,根据操作的不同,也有负责的人。
法保护方案将失败。 用户--如果适用的话,根据GDPR第26条45的共同责任。可以认
为,ChatGPT模式也会永久存储个人数据--至少是知名人士
除了可以根据UrhG第69a条保护人工智能软件本身,根据 的数据。ChatGPT也提供个人的信息。
UrhG第2(1)条第7款、第4(2)条和第87a条34对人工智能训练数据 46 基于这些数据记录。与GDPR出台前生效的BDSG不同,
进行个案保护,以及根据Gesch- GehG35或UWG第4(3)条36的补充
GDPR没有规定从合法公开传播个人数据的事实中获得进一
竞争服务保护对人工智能模型进行保护外,人工智能成果 步处理许可的法律依据。只有GDPR第9(2)(e)条规定了GDPR
的合同保护也应因此成为焦点。 第9(1)条对特殊个人数据的处理禁令的例外,只要处理涉
目前,OpenAI的许可条件规定,可以免费获得对使用条款 及到数据主体明显公开的个人数据。然而,GDPR第9(1)条
中定义的 "服务 "的非独家使用权。 的处理禁令的这种例外不能等同于处理授权;相反,根据
清楚了。37 GDPR第51条第5款,它是一种附加授权。
就--无论目前ChatGPT的许可模式如何--而言。
对不受保护的结果的合同权利。 欧洲议会和理事会1996年3月11日关于数据库法律保护的第96/9/EC号

由此产生的问题是,根据德国法律,在一般条款和条件下 指令(数据库指令),欧洲议会和理事会2001年5月22日关于协调信
息社会中版权和相关权利的某些方面的第2001/29/EC号指令(信息社
,这是否是允许的。可以想象,这将是一个违反了 会指令)。
§ 《德国民法典》(BGB)第307(2)条第1款,只要许可 29 Loewenheim/Leistner, in: Schricker/Loewenheim (footnote 25), § 2
UrhG marginal no. 40。
与偏离的法定条款的基本思想不一致。然而,在知识产权 30 参见Vogel, in: Schricker/Loewenheim (footnote 25), § 87a UrhG marginal no.
34。
合同领域,大多使用混合型合同,很少遵循统一的标准。 31 哈克,GRUR 2020, 1025, 1033。
32 Hetmank/Lauber-Rönsberg, GRUR 2018, 574, 575。
38
由于履约条款被排除在GTC的内容控制之外,39 偏离典型 33 Hetmank/Lauber-Rönsberg, GRUR 2018, 574, 576。
34 Hacker, GRUR 2020, 1025, 1028; Grä𝑓e/Kahl, MMR 2021, 121, 123。
的版权许可要求(如根据UrhG第31(5)条的目的限制原 35 关于排除对文本生成器AI的专利保护:Grä𝑓e/Kahl,MMR 2021,121
,123。
则)并不导致违反GTC。
36 哈克,GRUR 2020, 1025, 1031。
37 https://openai.com/terms/,有第2a条("服务的使用")。
当许可不受版权保护的文本生成信息时,可以根据使用模 38 Grohmann, GRUR-Prax 2019, 27, 28.
39 BGH,2012年4月19日 - I ZB 80/11, K&R 2012, 664, 第18段。
式考虑不同类型的合同。在永久使用的情况下,根据《德 40 BGH, 19. 4. 2012 - I ZB 80/11, K&R 2012, 664.
41 Hennemann, RDi 2021, 61, 64 m. w.N.
国民法典》(BGB)第581(2)条签订租赁协议是可以想象的,41 42 Hennemann, RDi 2021, 61, 64.
43 BGH,2006年11月15日 - XII ZR 120/04,K&R 2007,91 ff。
但也可以考虑包含购买协议和服务协议内容的混合型协议 44 Grohmann, GRUR-Prax 2019, 27, 28.
45 Conrad, K&R 2018, 741, 743.
或特殊协议。42 只要ChatGPT需要注册,并与无偿使用文本 46 对 "Loriot是谁?"问题的回答"Loriot是德国幽默大师、漫画家、演员和
导演Vicco von Bülow(1923 - 2011)的艺名。他被认为是20世纪德国
结果的许可相联系,最初就可以考虑无偿的协议类型了。 最重要的合作艺术家之一(......)"。对问题的回答
据鲜为人知的人士透露,被列入
对于贷款合同中的分类(在有偿使用的情况下对应于租赁
问题没有得到回答,当然,这并不排除对相应数据的存储。
合同),则
K&R 4/2023 Wilmer, ChatGPT & Co.的法律问题。 237

然而,GDPR第9(2)(e)条的评估可以在根据GDPR第6(1)(f)条 法国数据保护监督机构CNIL也指出,将聊天机器人作为通
平衡利益的情况下使用。 48 就已经合法公布的数据而言, 信助理需要相应的同意。61 ChatGPT的数据处理缺乏透明度
ChatGPT的处理可能是基于GDPR第6(1)(f)条。49 因此,需要 ,将很难根据GDPR第13(1)条充分告知数据主体数据处理的
有超过数据主体利益的合法利益。由于ChatGPT只是重新制 情况,因为即使披露算法也不会导致人工智能决策过程的
定了关于个人的公开数据,这些数据可以在互联网上的公 可追溯性。
开资源中随时获得,如果有关人员自己明显地公开了这些 根据《劳资协议会组织法》(BetrVG)第87a条,在使用
数据,就不应该假定他们的利益被推翻。 chatGPT作为适合监测雇员表现的技术设备的一部分时,也
"有关人员的明确和有意识的意愿行为 "51 ,据此不一定要
有共同决定的义务。
有 "有目的的公布 "52。根据GDPR第5(1)(b)条,数据是否是 "为
特定的、明确的和合法的目的 "而收集的,必须受到怀疑 在广告中使用时,UWG的规定适用于聊天机器人的结果,
,因为处理的确切目的--因为它取决于使用--是不知道的53
。 因此自动的、不受控制的营销声明可能导致非法误导消费
除了--对于人工智能的机器人来说,很难--对故意公布个人 者。
数据的行为进行评估--之外,还需要有更多的人参与进来
如果ChatGPT是由专业人员使用的,他们要遵守专业行为和

54 ChatGPT对个人信息的这种组合,可能超出了互联网用户 保密的特殊规则,那么它的使用可能与提供高度个性化服
务的原则相冲突,但毫无疑问,将其用于支持服务是允许
通过自己在互联网上的搜索而第一时间获得的信息,这在
的。
利益权衡中也发挥了作用。这也可能构成数据主体不能再
合理预期的处理。如果数据主体在社交网络上发布了数据
VI. 抄袭问题
,而社交网络的使用条款中禁止第三方读取数据,情况应
该是不同的。 55 但是,这里出现的问题是,数据主体的数
学生65
和学生使用ChatGPT将如何影响抄袭检查,这是一个问

据是否可以被第三方读取。 题。
一方面,剽窃一词可以从狭义上理解为侵犯他人的版权--
在这种情况下是指生成的文本。这就要求对人工智能的结
果拥有版权,但情况并非如此(见上文)。
66 然而,抄袭也可能包括违反《德国民法典》第63条规定

的指明来源的义务。
从而 "造成一种印象,即
借款来自于借款人 "67。
在社交网络上发布数据的数据主体,这些
数据保护法是基于这样的假设:数据保护机构不了解数据 委员会根据GDPR第22条做出了非法的决定。
保护法规,特别是在社交网络上,期望传播自我提交的数
据--至少在公开发布隐私设置的情况下,是不合理的。在
假设数据处理的合法利益的情况下
如果可以从第三方收集数据,那么就必须假定通知数据主
体从第三方收集数据的义务有一个例外。

大赦国际条例-E57第10(5)条规定的具有 "更严格 "的必要性标准58的


目的变更在多大程度上也可以作为法律依据。
将取决于为培训的具体目的使用个人数据。根据 反歧视59
制度,人工智能供应商可以在高风险的人工智能系统背
景下,在监测、检测和纠正偏见的严格必要范围内处理
个人数据,同时采取合理的预防措施来保护个人的基本权
利和自由。

2. 第三方对ChatGPT的整合

在公司自身的处理活动中使用ChatGPT--例如,在人力资源
部门支持创建个性化信件--如果是自动使用且没有人工干
预,则禁止使用。
238 Wilmer, ChatGPT & Co.的法律问题。 4/2023 K&R
47 也见关于GDPR第9条和一般法律要求之间的关系,Mester,在:
Taeger/Gabel(编辑),DSGVO、
2022年第4版,第9条边际第1页

48 Schwarz, ZD 2018, 353, 355.
49 Grä𝑓e/Kahl, MMR 2021, 121, 124.
50 Dallmann/Busse, ZD 2019, 394, 395; Schnebbe, in: Selzer, Datenschutz-
recht, 2022, Art. 9 DSGVO Rn. 13.
51 Mester, in: Taeger/Gabel (footnote 47), Art. 9 marginal no. 25 with further
references.N.
52 Mester, in: Taeger/Gabel (footnote 47), Art. 9 marginal no. 25 with the
remainder.N.
53 von Walter, K&R 2019, 21, 23; Conrad, K&R 2018, 741.
54 Dallmann/Busse, ZD 2019, 394, 396.
55 Dallmann/Busse, ZD 2019, 394, 397.
56 详细情况请参考GDPR的Recital 62:Dallmann/ Busse, ZD 2019, 394,
398.
57 S. u. IX.
58 Hornung,培训数据和数据主体的权利--在GDPR中及以后? 在:联
邦环境、自然保护、核安全和消费者保护部/Rostalski
(ed.), Artificial Intelligence.如何在德国和欧洲以 值得信赖的方式使
用它? 2022年,第91、117页。
59 Recital 44 KI-VO-E, p. 5.
60 作者:Walter, K&R 2019, 21, 23.
61 国家信息与自由委员会(CNIL),《聊天机器人:CNIL对尊重个人
权利的建议》、
19.2.2021,https://www.cnil.fr/en/node/120938。
62 Lauscher/Legner, ZfDR 2022, 367, 382; Ebert/Spiecker gen.Döhmann、
NVwZ 2021, 1188, 1191。
63 详见:Lorenz, K&R 2019, 1, 5 ff.
64 Kremer, K&R 2019, 18.
65 关 于 ChatGPT 在 学 校 的 使 用 问 题 , 请 参 见 : Beat Döbeli
Honegger, ChatGPT & Schule, Einschätzungen der Professur "Digitalisie-
rung und Bildung" der Pädagogischen Hochschule Schwyz, https://mia.
phsz.ch/pub/MIA/ChatGPT/2023-chat-gpt-und-schule-v117.pdf.
66 Loewenheim, in: Schricker/Loewenheim (footnote 25), § 23 UrhG
marginal no. 28。
67 Loewenheim, in: Schricker/Loewenheim (footnote 25), § 23 UrhG
marginal no. 28, see below IX. 1 on the labeling obligation of AI results
according to AI Regulation.
K&R 4/2023 Wilmer, ChatGPT & Co.的法律问题。 239

的用户透明地说明你的模型的局限性。
然而,在更广泛的意义上,抄袭被理解为违反了学术工作
2.确保你的团队拥有领域的专业知识,并了解/遵守相关的法律"。
的要求,据此,它不是所使用材料的版权保护问题,而只
是文本作者的推定问题。 68 只要学生在考试法中被要求确
认独立撰写论文以代替宣誓,69 整合ChatGPT文本而不做标
记,也可能违反《刑法》第156条(代替宣誓的虚假确认)
。然而,最重要的是,考试法规定的后果是可以预期的。
另一方面,根据UrhG第106条(未经授权使用受版权保护
的作品)的刑事责任,由于作品的必要性质 , 通常会失败

VII. 对错误结果或误用的责任?
关于ChatGPT的反应的责任问题,出现了哪些合同或法定的
保证和责任条例需要考虑的问题。人工智能系统的典型风
险包括未经人类审查的决策的自主性风险和在真正的人工
智能中无法理解的决策路径的不透明风险。71 在这一点上,
只能提出适用法规的节选,因为聊天机器人的使用场景很
多。责任主体将是系统的操作者和用户。
是那些为自己的目的使用结果的人--例如,对他们的合同
伙伴而言。

1. 合约责任

将考虑运营和使用聊天机器人的民事责任72。

a) OpenAI作为ChatGPT运营商

只要ChatGPT只有在接受使用条款的情况下才能使用,合同
约定的服务范围和目标状态是决定性的。 73 如果结果是免
费提供的,OpenAI的责任是基于BT义务法中不适用的合同
类型原则。根据许可模式,可能适用《德国民法典》第598
条规定的借贷原则(见上文关于个别合同类型的第四部分
)或赠与原则。
根据《德国民法典》第516条的规定。然后,根据《德国民
法典》第521、599、690条的规定,可能的责任方案是基
于无偿合同的有限责任。
的《德国民法典》(BGB)第280、276条。
OpenAI告知ChatGPT声明的可靠性以及服务的目标状态和
用户的合作义务:
"最新知识:ChatGPT的培训数据在2021年截止。 (......)ChatGPT没
有外部能力,不能完成看--。
ups。这意味着它不能访问互联网、搜索引擎、数据库或其自身模
型之外的任何其他信息来源。它不能验证事实,提供参考,或进
行计算或翻译。它只能在其基础上产生反应。
自己的内部知识和逻辑"。74
此外,OpenAI指出了以下几点:75
"以下一组用例具有更大的潜在危害风险:刑事司法、执法、法律
、政府和民事服务、医疗保健、治疗、健康、辅导、金融、新闻
。对于
你必须:1.在你的用例中彻底测试我们的模型的准确性,并对你
240 77 见Grohmann, GRUR-Prax 2019, 27, 28中的概述。 4/2023 K&R
Wilmer, ChatGPT & Co.的法律问题。
就OpenAI提及模型的局限性和控制结果的必要性而言 78 BGH, 19. 1. 1984 - VII ZR 220/82, BGHZ 89, 363 f. = BB 1984, 746.
79 节选自ChatGPT对如何创建一个
气管切开术。
,只要合同方不能知道模型的细节和局限性,这些提
80 BGH, 26. 1. 2005 - VIII ZR 79/04, K&R 2005, 176; 另 参 见 Spindler, in:
及的透明度就可能受到怀疑。 Spindler/Schuster, Recht der elektronischen Medien, 4th ed. 2019, Vor-.

在不准确或错误的结果的影响下,无数的责任情景是
可以想象的。一个施乐复印机的案例说明了意外使用
人工智能的后果,由于许多客户不知道一个弱的人工
智能功能,该复印机没有产生照片的复制,而是产生
不清晰的图像。
自主地纠正数字或号码--有时数值的结果是不正确的
("4变成7")。
ChatGPT许可条件中的责任限制也将是无效的,因为它
不 符 合 一 般 条 款 和 条 件 法 下 的 通 常 限 制 。 77 尽 管
OpenAI提到了易受损害的应用程序,但很难确定典型
的可预见的损害,而这是最高责任限制的标准。 78
ChatGPT还回答了关于易受损害的信息或在内容错误时
危及健康的问题,如如何进行气管切开术的问题。相
应的
答复中还补充说明:"干预将是
通常由有经验的医生进行,需要精心准备和执行"。79
在这方面,还有待观察哪些保障措施
当ChatGPT作为搜索引擎目录的一部分进行操作时,会
使用这些通知。

b) 在第三方服务中整合ChatGPT

如果ChatGPT的结果被整合到第三方提供的服务中,根
据数据整合和提供的许可模式,根据§535 BGB、§581
BGB的租赁法或§433 BGB的购买法的索赔,例如,会
被考虑在内。如果ChatGPT被用作合同缔结过程的一部
分,电子、自动意向声明的规则也适用于此,它可以
是合同缔结的有效部分,其错误可以成为根据《德国
民法典》第119条第1款第2句或第120条提出的质疑的
一部分80。

68 Loewenheim, in: Schricker/Loewenheim (footnote 25), § 23 UrhG


marginal no. 30, on the criminal law consequences of plagiarism in
the area of fraud under § 263 StGB:Wagner, wistra 2017, 466.
69 摘自达姆施塔特应用科学大学信息技术法学习课程的样本表
述 : https://irecht.h-da.de/filead
min/Studiengaenge/Irecht/STUDIENGAENGE/Gemeinsame_Unterlage
n/Pruefungsunterlagen/Ewerstattliche_Erklaerung.pdf:"我在此
声明,以代替宣誓,我撰写本作品时未经授权。
我在编写本报告时没有得到第三方的帮助,也没有使用除所述辅
助工具以外的其他工具。直接获得的信息或
间接采用的段落会标明参考文献。草案中的新版本明确禁止
未标注的使用聊天机器人。
70 关于学术领域的问题见Fahl, ZRP 2012, 7, 9。
71 Burchardi, EuZW 2022, 685, 686; Strecker, RDi 2021, 124.
72 关于刑法下的可能后果,Lorenz, K&R 2019, 1, 6 f.
73 关于进一步的责任方案,见Lorenz,K&R 2019,1,6 f。
74 h t t p s : / / h e l p . o p e n a i . c o m / e n / a
r t i c l e s / 6 8 2 7 0 5 8 - w h y - d o e s n - t -
c h a t g p t - know-about-x。
75 https://platform.openai.com/docs/usage-policies。
76 8.2013, "Profi-Kopierer verdreht Zahlen",
https://www.spiegel.de/netzwelt/apps/blogger-schreibt-bug-xerox-
scan kopierern-sollen-zahlen-vertauschen-a-914897.html。
K&R 4/2023 Wilmer, ChatGPT & Co.的法律问题。 241

91 为确保这一点,目前在欧盟和国际层面上有一系列的监管
2. 法律责任条例

除了合同规定外,还必须遵守法律规定--特别是在使用 方法。
ChatGPT结果的通信机箱或类似FAQ的系统时。如果不正确 除了与产品安全或服务相关的法规93外,法规还包括以下草案:
的答案导致损害了 1.
如果错误的答案导致了健康或生命的损害,可以考虑根据 94 根据《人工智能条例》草案第5条第1款a项,禁止人工智

《德国民法典》(BGB)第823(1)条要求赔偿。另一方 能应用--也禁止在 "社会评分 "的环境中使用亚阈值技术的95



面,由错误答案造成的经济损失不在《德国民法典》第823
此外,还禁止利用特定人群因年龄或身体或精神残疾的弱
(1)条的范围内。到目前为止,没有严格的现行法责任,
点或脆弱性的做法。根据草案第6条,高风险的人工智能系
除非人工智能被整合到某些产品中,例如,产品责任法或
统须遵守特殊要求。根据AI-Reg-E的附件三,这些包括教育
医疗产品的规定就适用于这种情况。在某些情况下,人工
和培训、就业和人力资源管理领域的某些应用。
智能系统的严格责任被认为类似于《德国民法典》第833条
规定的动物主人的责任。81 新的欧盟人工智能法规82也没有 关于第116条及其后的评论,边际编号5;Wilmer, NJW-CoR 2000, 94,
96;关于通过Alexa订购货物的情况,见:Pieper, K&R 2019, 14, 17。
从根本上引入严格责任,而不考虑过错。
81 见关于严格责任的讨论状况,Lorenz,K&R 2019,1,6。
82 S. u. IX.
VIII. 歧视问题/市场影响 83 Bomhard/Siglmüller, RDi 2022, 506, 507.
84 见 数 据 道 德 委 员 会 对 联 邦 政 府 人 工 智 能 战 略 的 建 议 9. 10. 2018 ,
https://www.bmi.
84 由于有可能自动使用,不仅存在OpenAI对训练数据和算
bund.de/SharedDocs/downloads/DE/veroeffentlichungen/themen/it-digi
talpolitik/datenethikkommission/empfehlungen-datenethikkommission.
法 的非歧视性的责任问题 85 ,其后果是可能违反AGG第7
pdf? blob=publicationFile&v=2.
85 细节和例子见Lauscher/Legner, ZfDR 2022, 367, 371 f。
条和德国就业平等法(AGG)。 86 ChatGPT对 "你是梅根队还是凯特队?"这一问题的回答是:"我是一个
人工智能模型,没有个人偏好或意见。我的目标是客观地、没有偏见
§ 问题是,人工智能逻辑是否也在复制仇恨言论的结果中
地回答问题"。
发挥作用(也是通过采用典型的反应模式间接地),从而 87 2016年3月24日Heise.de上的文章,"微软的聊天机器人Tay在出现种族
主义的口误后被关闭",https://www.heise.de/newsti
有利于仇恨信息通过社交媒体的相应传播。由于这类事件 cker/news/microsofts-chatbot-tay-after-racist-derailments-.
abgeschaltet-3151646.html.
88 https://platform.openai.com/docs/usage-policies。
的发生,聊天- 89 https://openai.com/terms/。
OpenAI在其网站上列出了 "Tay"。
87
90 ChatGPT对 "什么时候会出现过度崇洋媚外?"的回答:"'过度崇洋媚外'
使用条款规定,除其他事项外,还有:88 并没有统一的定义。这个词经常被用在负面的语境中,意味着大多数
"使用政策;我们希望每个人都能安全、负责地使用我们的API。 人都不是来自某个国家、种族或文化。然而,必须注意的是
为此,我们制定了用例和内容政策。通过遵守这些政策,你将帮 这个词具有种族主义和歧视性的含义,因此应该拒绝。更重要的是
助我们确保我们的技 术 被用来做好事。如果我们发现你的产品没
要注重促进一个多元化和包容性的社会,在这样的社会中,每个人
有遵守这些政策,我们会要求你做出必要的改变。如果你不遵守
都受到欢迎,并拥有平等的权利和机会,无论其背景、种族或国籍
,我们可能会采取进一步行动,包括终止你的账户。(...) 用例政
策:我们禁止建造产品 。人们的多样性和差异可以被看作是一种力量,有助于使社会更有

针对以下使用情况:非法或有害的行业, 滥用个人数据, 促进不诚 活力和丰富。


巢穴"。
实的行为, 欺骗或操纵......。 91 ChatGPT对 "人们应该害怕人工智能吗?"的回答:"这取决于你如何使
煽动用户,试图影响政治。内容政策:我们也不允许你或你的应 用和监管人工智能。一些专家担心人工智能落入坏人之手。
用程序的最终用户产生以下类型的内容:仇恨、骚扰、暴力、自 并可能被用于负面目的,而其他人则认为,人工智能具有令人难以
我伤害、性、政治、垃圾邮件、欺骗、恶意软件"。 置信的潜力,可以改善人们的生活。重要的是,要安全和道德地开
发和监管人工智能,以确保它被用于社会的利益。这可以通过监督
此外,OpenAI在使用条款的第2.a点中规定了以下内容:
人工智能的使用并为其使用制定规则和条例来实现。然而,只要负
"限制条件。您不得(i)以侵犯、盗用或违反任何人的权利的方 责任地开发和监管人工智能,就不太可能惧怕它。相反,人们应该
式使用服务"。89
意识到
因此,OpenAI保留防止相应的滥用的权利。只要ChatGPT 和人工智能提供的机会"。
92 概述见Strecker, RDi 2021, 124 ff.
已经检测到可能有问题的 "触发词"(例如在测试 93 2021年4月21日欧洲议会和理事会关于机械产品的法规提案(COM
"Overfrem- (2021)202最终版本);2021年6月30日欧洲议会和理事会关于
粪便"90 )显然是由人工智能模型准备的。 一般产品安全的法规提案,(COM(2021)346最终版本);2019
这从一开始就防止了仇恨言论的使用。 年6月20日欧洲议会和理事会关于促进在线中介服务的企业用户的
言论和类似形式的虐待。 公平性和透明度的(EU)2019/1150条例。
94 欧洲议会和理事会关于使非合同民事责任规则适应人工智能的指令
IX. KI-VO草案和进一步的欧洲法规 提案(AI责任指令),COM(2022) 496 final。
95 关于这一点,Ebert/Spiecker gen.Döhmann, NVwZ 2021, 1188, 1189。
根据ChatGPT自己的声明,人类不太可能需要害怕AI,
如果它是
242 Wilmer, ChatGPT & Co.的法律问题。 4/2023 K&R

该项目的目的是改善基本私人和公共服务和福利的可及性 其目的是确定向国家法院提出的与人工智能系统造成的损
和使用。 害有关的非契约性过失民事索赔的举证责任。
根据第28条第4款的规定。4,"应考虑到人工智能系统对宪
只要ChatGPT和类似系统的结果被整合到搜索引擎和其他平
章所涵盖领域的负面影响的程度"。
台,102其使用可能属于《数字服务法》103(DSA)和/或《数
在将人工智能系统归类为高风险时,基本权利(......)是特
别重要的"。被归类为高风险系统对以下方面也有重要意义 字市场法》(DMA)的规定。如果是非常大的在线平台或

在侵权领域,根据《德国民法典》第823条第1款确定注意 非常大的在线搜索引擎的供应商,使用类似ChatGPT的系统

义务或根据《德国民法典》第823条第2款确定保护权利。 必须接受DSA第34(1)条的风险评估。根据DSA第34(1)(3)
条,这些必须仔细识别联盟中的所有系统性风险,包括传
乍一看,聊天机器人似乎不属于高风险系统。然而,由于
播非法内容等系统性风险,对行使基本权利的任何实际或
其结果在融入教育、司法或医疗应用(尤其是在选择或评
可预见的不利影响,对社会辩论和选举进程及公共安全的
估场景中97)时可能导致戏剧性的后果,在使用ChatGPT时也
实际或可预见的不利影响,以及与基本权利有关的其他风
可以考虑这种分类。满足这些使用高风险系统的透明度要
险。
求,已经会给运营商带来相当大的挑战98。
然而,在深度造假方面,DSA的某些要求提到了图像、声
根据《人工智能条例-E》第52(1)条,供应商还必须确保用
音或视频内容,但没有提到文本内容104。
于与自然人互动的人工智能系统的设计和开发方式,使自
数字市场 法105 规定,除其他事项外,守门人有义务在透
然人被告知他们正在与人工智能系统打交道,除非由于使
明、公平和非歧视的条件下对平台进行排名(数字市场
用环境和背景而明显如此。这将导致对聊天结果的许可要
法第6条第5句话2)。由于ChatGPT在很大程度上参与了
求,以便将其纳入第三方服务。
排名,因此DMA的相应条款也是相关的,也必须遵守。
理事会 2022年 11月25日的提案 99 在 其第3(1)(b)条中定义为 "通
用人工智能系统",该人工智能系统--无论其如何投放市场 X. 关于监管的建议
或投入使用,包括以开放源码软件的形式--由提供者打算
由于已经确定,与编程和数据库不同,ChatGPT & Co公司
用于以下目的
被认为是普遍适用的功能,如图像或 的成果在知识产权领域有可能得到保护。
人 工 智 能 条 例 》 还 将 高 风 险 系 统 定 义 为 在不存在工业产权的情况下,合同许可的可能性106在现行法
可 以 进行语音识别、音频和视频生成、模式识别、问题 上是有限的,那么问题就来了,在保护的可能性上增加哪
回答、翻译和其他任务的系统;在这种情况下,一个通用 些内容在拟议法上是合理的。
的人工智能系统可以在各种情况下使用并集成到各种其他 相应的保护需求可以类似于专利法107的基本思想,即需要保
人工智能系统中。这样一来,这一定义也会影响到ChatGPT 护投资和奖励技术进步。
等聊天机器人,因此根据理事会人工智能条例第一篇a,这
类系统也可以明确属于高风险系统(理事会人工智能条例-
E第4b(1)条),除非它们被用于同一背景。
除非提供方在使用说明中或在文件中注明
96 Roos/Weitz, MMR 2021, 844, 850.
具有一般使用目的的人工智能系统的附带文件明确排除了 97 在Molavi Vasse'i中的例子,K&R 2022,Suppl.1到H. 7/8,8。
98 Molavi Vasse'i, K&R 2022, Suppl.1至H. 7/8,8,9。
任何高风险的使用(理事会人工智能条例-E第4c条第1款) 99 2021/0106(cod), https://data.consilium.europa.eu/doc/document/ST-14
954-2022-INIT/de/pdf.
。然而,根据《理事会人工智能条例》第4c条第2款,如果 100 见 关 于 AI 责 任 指 令 的 AI 术 语 和 理 事 会 2022 年 11 月 3 日 的 提 案 ( 第
提供者有足够的理由相信系统可能被滥用,那么这种排除 13955/22号)Bomhard/Siglmüller, RDi 2022, 506, 507。
101 Bomhard/Siglmüller, RDi 2022, 506, 507.
是善意的,不被认为是合理的。如果提供者发现或被告知 102 文章由Weiß在heise.de上发表,2023年2月14日,"Klar macht das neue
Bing Fehler - spannend ist die KI-Suche trotzdem" , https://www.heise.
市场上有滥用行为,它应采取一切必要和相称的措施,以 de/news/Klar-macht-das-neue-Bing-Fehler-spannend-ist-kie-Suche-。
dennoch-7493727.html.
防止进一步的滥用,特别是考虑到滥用的程度和相关风险 103 欧洲议会和理事会第(EU)2022/2065号条例。
的严重性(《理事会信息社会服务条例》第4c(3)条)。 2022年10月19日,关于数字服务单一市场和修 订 指令2000/31/EC
(数字服务法)。
根据其第1(1)(a)条和第3条,补充性的人工智能责任条例 104 第35条第1款第2句k项DSA。
105 欧洲议会和理事会第(EU)2022/1925号条例。
-E规范了有关高风险人工智能系统100的证据披露,目的是 14. 9. 2022年,关于数字部门的可竞争和公平市场,并修正指令(
欧盟)2019/1937和(欧盟)2020/1828(数字市场法),OJ 2022
使原告能够对过错提出非合同性101诉讼。
,L 265/1。
106 Strecker, RDi 2021, 124, 127.
K&RHetmank/Lauber-Rönsberg,
107 4/2023 GRUR 2018, 574, 576.除此之外,还
Wilmer, ChatGPT & Co.的法律问题。 243
参考了BGH, 13.6. 1996 - I ZR 114/93, GRUR 1996, 114 - Klinische
Ver-.
搜索
240 Meyer/Rempe, 2022年搜索引擎的当前法律发展情况 4/2023 K&R

不幸的是,没有全面的监管方法提供和平的 "一站式 "解决方 特别是防止小型供应商因监管方法混乱和不适应人工智能


案108,甚至没有规定明确的人工智能术语109。一些
而负担过重。
提案源于已确定的缺点
的数据保护条例,并要求将其省略。
在训练数据不足的情况下的索赔110
托马斯-威尔默
通过使用GDPR的开放条款111来补充国家对人工智能的监
1968年出生;在海德堡大学学习并获得博士学
管,部分地要求改进反歧视法。 位;自2002年起担任信息法教授,自2004年起
在一个理想的世界里,"设计控制 "113的概念是可取的,在 担任信息法研究所的执行主任。
这种情况下,利益相关者可以在控制管理系统中指定他们 达姆施塔特应用科学大学法学博士,DGRI数字
的哪些 经济和平台经济委员会的联合主席。
哪些数据会进入哪些人工智能,用于哪些目的?
可以使用。这样一个概念--基 于
类似于TTDSG第25条的PIMS的自决方法,114但也类似于《 108 批判性评估:Ebert/Spiecker gen.Döhmann, NVwZ 2021, 1188, 1193
数据法》和《数据治理法》的某些原则--可以澄清个人在 。
109 Hornung(注58),第95页;Bomhard/Siglmüller, RDi 2022, 506, 513。
数据主权意义上的自决足以超越数据保护的同意问题115。 110 Hornung(注58),第110页及以下。
111 霍农,DuD 2022,561,566。
研究的结果仍然可以导致欧洲层面在这个方向上的进一步 112 Lauscher/Legner, ZfDR 2022, 367, 389。
113 威尔默,塔图普2021年,56,61。
思考,如果有必要的话,不仅是在监管方面,还可以与人 114 Golland/Riechert, in: Riechert/Wilmer, Berliner Kommentar zum
TTDSG, 2022, § 26 TTDSG Rn. 5 ff.
工智能供应商的自我监管方法116合作。这可以促进欧洲对人 115 Riechert, in: Augsberg/Gehring (eds.): Datensouveränität, Positionen
工智能的态度117和
zur Debatte, 2022, pp.85, 94.
116 Strecker, RDi 2021, 124, 131.
117 https://digital-strategy.ec.europa.eu/de/policies/european-approach-
人工智能。

Sebastian Meyer博士,法学硕士和Christoph Rempe博士,律师*。

当前的法律发展
2022年,在搜索引擎上
短暂而甜蜜 II. 市场开发
该报告概述了与搜索引擎有关的法律发展。它考虑到了 搜索引擎的市场仍然是静态的,没有太大的变动。到目前
过去一年的法院判决、科学文章和其他出版物。因此, 为止,作为无可争议的市场领导者,谷歌不会失去任何重
本报告是继以前的年度报告,特别是前一年的概述( 要的市场份额,也不会有其他供应商可以明显地扩大其相
K&R 2022, 247 ff. )之后的。 关性。一旦以这种方式确立了市场地位,就很难挑战其主
导地位,特别是在数字领域。1 谷歌的平均市场份额在几乎
所有市场和几乎所有使用的终端设备中都超过了90%。然
I. 简介
而,桌面设备的份额明显较弱,在德国,谷歌的份额仅略
搜索引擎运营商,首先是作为主导公司的谷歌,是进入搜 高于80%,在全球范围内为85%。
索引擎的守门员。
对信息。因此,必须密切关注
问题是,搜索引擎是否真的以中立和非歧视的方式给予访 信息自由方 面 的重要性。
问,另一方面,是否以及在什么条件下可以从搜索索引中
删除内容。在这种情况下,近年来将搜索引擎领域置于更
严格的监管之下的趋势仍在继续。然而,在其具有里程碑
意义的裁决中,欧洲法院另一方面再次强调了搜索引擎在
K&R* 作者是BRANDI
4/2023 Rechtsanwälte律师事务所的律师,在Ref的支持下撰写了 Wilmer, ChatGPT & Co.的法律问题。 241
这篇文章。你可以在文章末尾找到更多关于作者的信息。所有引用的
互联网资料的最后访问时间为2023年3月10日。
1 Spindler/Seidel, NJW 2022, 2730, 2731; Hacker, GRUR 2022, 1278、
1280.
2 关 于 2022 年 的 市 场 份 额 分 布 , 请 参 见 Statcounter 的 分 析 :
https://gs.statcounter.com/search-engine-mar ket-
share/desktop/germany/#monthly-202201-202212 或 https://gs.
statcounter.com/search-engine-market-
share/desktop/worldwide/#monthly-202201-202212。

You might also like