研究人员应该被允许使用YouTube视频和推特吗?

关于一个人,你可能会根据他们的声音猜测很多:他们的性别,年龄,甚至他们的种族。这是你的大脑根据你所经历的对说话人的身份进行有教养的猜测,但有时,这些猜测是错误的。(我在电话里交谈的人不知道我的名字,他们常常认为我是白人,因为我说的英语没有口音。他们经常对我是亚洲人表示惊讶。)在……里面最近的一篇论文,麻省理工学院的一组研究人员开始调查电脑,计算机从一个人的声音中猜出一个人的外表。

为此,研究人员使用一个名为AVSpeech这是由谷歌研究人员为另一个项目编写的YouTube视频的精选。该模型提供了来自YouTube的数十万个例子的脸和声音数据。然后,研究人员将这些声音喂给模型,并要求它制作一张它认为与声音匹配的脸。最后,该模型很好地预测了一个人的长相,但与具有特定身份的人进行了斗争。例如,当一个亚裔美国人以亚洲人的身份说中文的时候,当他说英语的时候,它会画出一个白人。它似乎也有声音音调的问题-它假定高音的人是女性,低音的人是男性-而且年龄也很大。简而言之,这个模型似乎学会了一些关于一个人的脸和声音的基本的刻板印象。

在他不知情的情况下,Cloudflare密码学主管尼克·沙利文(NickSullivan)为这种模式的“教育”做出了贡献。他说,一位朋友把报纸寄给了他,当看到他的脸出现在“成功”的渲染作品中时,他“非常惊讶和困惑”。沙利文说:“我看到了一张我的照片,一张我的脸的电脑构造,以及一张电脑生成的图像,这些图像和我不一样,但鼻子和下巴的尺寸是相似的。”(在我看来,他对计算机生成的图像相当慷慨,和他一样难以辨认。)

他感到困惑的部分原因是,他没有签署任何弃权书来作为机器学习研究的一部分,但他他在YouTube视频上签名放弃露面,因此他认为其中一段视频可能进入了研究人员使用的数据集。然而,经过一番挖掘,他发现了数据集中使用的视频,并没有记得签署了任何形式的弃权声明。大多数人并不完全理解“公开可用”到底是什么 手段。

不过,沙利文是否签署了弃权书并不重要。大多数利用来自人类参与者的数据的研究确实要求科学家获得知情同意(通常是以放弃的形式)。但是YouTube视频被认为是可公开获取的信息,并不被归类为“人类主题研究”-即使研究人员正在研究你的脸和声音的复杂之处。尽管YouTube用户拥有自己视频的版权,但使用剪辑的研究人员可能会认为他们的作品符合“合理使用有版权的材料,因为最终的结果是原作的“变革”。(在Speech2Face数据中,该模型将语音和面部数据完全转换为其他数据。)科罗拉多博尔德大学信息科学助理教授CaseyFiesler说,她从未见过一位版权持有者向使用互联网帖子作为数据的研究人员发起挑战。“这可能没有法律上的问题,”她说。

但仅仅因为某件事是合法的并不意味着它是道德的。但这并不意味着联合国这也是道德的,但值得问的问题是,研究人员是如何和为什么使用社交媒体帖子,以及这些使用是否可能是有害的。我曾经是一名研究人员,必须获得大学机构评审委员会的认可,我知道这可能是一个漫长的申请过程。从个人收集数据也需要很长时间。如果你只需加入YouTube视频,而不是收集你自己的数据,那就节省了时间、金钱和精力。但这可能是以牺牲那些你在收集数据的人为代价的。

但是,你可能会说,如果人们不想在网上学习,那么他们就不应该发布任何东西。但大多数人并不完全理解“公开可用”的真正含义及其影响。菲斯勒说:“你可能在智力上知道,技术上任何人都可以看到一条推特,但你仍然把你的观众概念化为你的200名Twitter粉丝。”在她的研究中,她发现大多数被她调查的人都不知道研究人员会研究公共推文。

有些人可能不同意研究人员有责任解决社交媒体用户的无知,但Fiesler和其他人呼吁他们的同事更加注意任何使用公开数据的工作。例如,宾夕法尼亚州立大学语言和扫盲助理教授阿什利·帕特森(AshleyPatterson)最终决定在她的论文中使用YouTube视频,内容是关于混血个体教育经历的论文。这是她后来做出的决定仔细考虑她的选择路上的每一步。她说:“我必须设定自己的道德标准,并坚持自己的道德标准,因为我知道没有人会这样做。”帕特森的第一步是问问自己,YouTube视频会给她的工作增加什么,以及是否有其他方法来收集她的数据。“问题不在于它是否会让我的生活变得更容易,也不在于它是否会被浪费掉的只是‘外面的数据’。”她说:“我的问题的性质和我想要得到的回应,使得这是我工作中的一个合适的部分。”

研究人员也可能希望在权衡伦理决定时考虑定性的、难以量化的上下文线索.使用的是什么样的数据?菲斯勒指出,比方说,有关电视节目的推特比那些关于敏感疾病的推文要少得多。匿名的书面材料,比如Facebook的帖子,可能比使用YouTube视频中某人的脸和声音更具侵略性。研究项目的潜在后果也值得考虑。例如,菲斯勒其他批评人士指出,使用YouTube视频的研究人员记录了他们接受激素替代疗法训练人工智能的经历。识别跨性人群可能会让他们不知情的参与者陷入危险。目前还不清楚Speech2Face的结果将如何使用,当被要求发表评论时,该论文的研究人员表示,他们更愿意引用他们的论文,这篇论文指出了一个有益的目的:在电话中根据说话者的声音提供一张“有代表性的脸”。但人们也可以想象出一些危险的应用程序,比如匿名YouTUBERS。

一种可能的方法是采取措施明确通知参与者他们的数据正在被使用。菲斯勒说,当她的团队在得知他们的推文被用于研究之后询问他们的感受时,“并不是每个人都感到非常沮丧,但大多数人都感到惊讶。”他们似乎也很好奇;85%的参加者他们说,如果他们的推文被包括在研究中,他们会想要阅读由此产生的论文。菲斯勒建议:“在人类研究中,道德标准是知情同意,但告知和同意可能会被拆散;你可能会在没有得到他们的同意的情况下告知人们。”

沙利文说,如果能得知他的声音和脸在一个研究数据库里,那就太好了,但他也承认,考虑到语料库的大小,这将是一项艰巨的任务。在Speech2Face的案例中,研究人员正在使用最初为另一个项目收集的数据集。即使最初的研究人员已经通知参与者他们的视频正在被使用,那么Speech2Face用户是否也有责任用他们的工作细节来重命名这些用户呢?无论如何,研究人员似乎至少可以通知那些在论文中公布个人信息的人。沙利文说:“由于我的形象和声音在Speech2Face的论文中被挑出来作为一个例子,而不是仅仅作为一项统计研究中的数据点,所以主动通知我或征求我的许可是礼貌的。”

但在所有情况下,即便是通知尤塔布耶,也可能不是最好的决定。例如,帕特森曾考虑这样做,但出于两个原因决定不这么做。首先,有一些尤图耶斯年龄在18岁以下,这意味着要联系他们,她必须先联系他们的父母。帕特森说,根据视频中关于家庭和学校经历的坦率内容,尤图耶尔夫妇想象的观众绝对不是父母。“这似乎违反了他们对这个平台的设想,”她说,但她也承认,研究人员的眼睛也可以被看作是一种违反行为。此外,帕特森说,她采访的IRB官员表示,他们没有先例与YouTube视频等公开内容的创建者联系,要解决这些问题需要几个月的时间。就帕特森而言,这似乎不太现实。

最终,研究人员不可能一刀切地决定使用可公开获取的数据是否合适,但当然还有更多的空间进行更多的讨论。菲斯勒说:“能看到研究人员更多地反映出这种情况的原因,那就太好了。”菲斯勒表示,研究人员发表的论文可以讨论他们所做的伦理考虑。(Speech2Face的论文确实包含了“道德”一节,但它没有包括这种类型的讨论,当被要求发表评论时,他们会把我带回到这一节。)帕特森同意这样的观点:“我认为肯定会有更多的对话,在不远的将来,你甚至可能无法做这样的工作。”

将来时态是合伙企业板岩, 新美洲,和亚利桑那州立大学研究新兴技术、公共政策和社会。