作者都是各自领域经过审查的专家,并撰写他们有经验的主题. 我们所有的内容都经过同行评审,并由同一领域的Toptal专家验证.
Madelyn是Toptal的首席工程编辑,也是Meta的前软件工程师. 她有六年多的研究经验, 写作, 并为工程出版物编辑, 专门研究新兴技术和人工智能. 她曾在南加州大学维特比工程学院担任编辑,她关于工程伦理的研究发表在IEEE的NER 2021会议上.
之前在普罗米修斯集团
曾任职于Jumia Group
生成式AI无处不在. 具有生成文本的能力, 图片, video, 和更多的, 它被认为是未来三到五年内最具影响力的新兴技术 77%的高管. 尽管自20世纪60年代以来就开始研究生成式人工智能, 近年来,由于前所未有的训练数据量和人工智能的出现,其功能得到了扩展 2021年的基础模型. 这些因素使得ChatGPT和DALL-E等技术成为可能,并引领了生成式人工智能的广泛采用.
然而, 它的迅速影响和增长也带来了无数的伦理问题, Surbhi古普塔说, GPT和 Toptal的人工智能工程师 谁从事过尖端的自然语言处理(NLP)项目,从聊天机器人和营销相关的内容生成工具到代码解释器. 古普塔亲眼目睹了幻觉、偏见和错位等挑战. 例如, 她注意到,一个旨在识别用户品牌目的的生成式人工智能聊天机器人在提出个性化问题(而不是根据一般行业趋势)时遇到了困难,而且未能对意想不到的问题做出回应, 高风险的情况下. “做化妆品生意, 它会询问有关天然成分的重要性的问题,即使用户自定义 独特的卖点 是针对不同皮肤类型使用定制配方吗. 当我们测试边缘情况时,比如用自我伤害的想法或有偏见的品牌理念来提示聊天机器人, 它有时会转移到下一个问题,而没有对问题做出反应或处理问题.”
事实上,仅在过去的一年里,生成式人工智能就已经传播开来 财务数据不正确,时 假法庭案件,生产 有偏见的图片,并提出了一大堆 版权的问题. 虽然 微软, 谷歌,和 EU 有没有提出发展负责任的人工智能的最佳实践, 我们采访的专家表示,由于不断增长的新生成人工智能技术的无限制增长和影响,需要额外的指导方针.
人工智能伦理与法规 一直在争论 在立法者,政府和全球的技术人员中已经存在了很多年. 但最近的生成式人工智能增加了这类任务的紧迫性,也加大了风险, 同时加剧了现有的人工智能对错误信息和 有偏差的训练数据. 它也带来了新的挑战, 比如确保Authenticity, Transparency, 以及明确的数据所有权指导方针, Toptal人工智能专家海科·霍兹说. 在技术领域有超过20年的经验, 霍兹目前作为人工智能和人工智能的高级解决方案架构师,为全球公司提供有关生成式人工智能主题的咨询 机器学习 在AWS.
现有的问题 | 在生成式人工智能被广泛采用之前 | 在广泛采用生成式AI之后 |
错误信息 | 主要的风险是铺天盖地的错误信息.g., 在社交媒体上). 通过Photoshop等程序进行的智能内容操作很容易被来源或数字取证检测到, 说霍. | 生成式人工智能可以加速错误信息,因为创建虚假但真实的文本的成本很低, 图片, 和音频. 基于个人数据创建个性化内容的能力为操纵打开了新的大门.g., 人工智能语音克隆骗局), 困难 在检测假货时坚持. |
偏见 | 生成式人工智能训练数据集以前所未有的规模放大了偏见. “模型在大量非结构化数据中发现了根深蒂固的社会偏见.g.(如文本语料库),这使得很难检查它们的来源,”霍茨说. 他还指出了有偏差的生成模型输出产生新训练数据的反馈循环的风险.g.(当新模型在人工智能撰写的文章上进行训练时). |
特别是, 无法确定某样东西是人工智能还是人类创造的可能会产生深远的影响. 有了深度造假视频, 现实人工智能艺术, 以及能够模仿同理心的会话聊天机器人, 幽默, 以及其他情绪反应, 生成式人工智能欺骗是人们最关心的问题, 霍兹断言.
同样相关的还有数据所有权问题,以及围绕知识产权和数据Privacy的相应合法性问题. 庞大的训练数据集使其难以获得同意, 属性, 或者注明原始来源, 并具有高级的个性化模仿工作能力 音乐家 or 艺术家 创造新的版权问题. 此外, 研究 法学硕士可以从培训数据中泄露敏感或个人信息, 估计 15%的员工 定期将公司信息输入ChatGPT,已经将业务数据置于危险之中.
应对这些影响广泛的风险, 应迅速制定和实施负责任的生成式人工智能开发指南, Toptal的开发者伊斯梅尔Karchi说. 他从事过各种人工智能和 数据科学项目-包括Jumia Group影响数百万用户的系统. “道德生成人工智能是一项涉及各级利益相关者的共同责任. 在确保以尊重人权的方式使用人工智能方面,每个人都可以发挥作用, 促进公平, 并使整个社会受益,卡奇说. 但他指出,开发人员在创建合乎道德的人工智能系统方面尤为重要. 他们选择这些系统的数据, 设计它们的结构, 并解释它们的输出, 他们的行为会产生巨大的连锁反应,影响整个社会. 伦理工程实践是构建伦理生成人工智能的多学科和协作责任的基础.
实现负责任的生成人工智能, Karchi建议在教育和组织层面将伦理道德融入工程实践:“就像医学专业人员从一开始就受到道德准则的指导一样, 工程师的培训也应包括基本的道德原则.”
在这里, 古普塔, 霍, 和Karchi为工程师们提出了这样一个生成式的人工智能道德准则, 定义了在开发生成式人工智能解决方案时要执行的五大道德支柱. 这些支柱从其他专家的意见中汲取灵感, 负责任的人工智能指导方针, 和额外的 generative-AI-focused指导 并且专门针对构建生成式人工智能的工程师.
现有的生成式人工智能对错误信息的担忧, 工程师在设计解决方案时应优先考虑准确性和Authenticity. 验证数据质量和故障后修复模型等方法可以帮助实现准确性. 最突出的方法之一是 检索增广生成 (RAG)是一种促进法学硕士准确性和Authenticity的领先技术,霍茨解释说.
他发现这些RAG方法特别有效:
对于聊天机器人这样的应用程序, 开发人员还可以为用户构建访问源和独立检查响应的方法,以帮助解决问题 自动化的偏见.
生成式人工智能开创了一个关于内容Authenticity不确定的新时代 文本, 图片, 和视频, 因此,构建能够帮助确定内容是否人为生成和真实的解决方案变得越来越重要. 如前所述,这些虚假信息可以放大错误信息并欺骗人类. 例如,他们可能 影响选举,使 身份盗窃 或者降低数字安全,导致 骚扰或诽谤.
“解决这些风险需要多方面的方法,因为它们会带来法律和道德问题,但当务之急是建立深度假检测的技术解决方案。,卡奇说. 他指出了各种解决方案:
值得注意的是,生成式人工智能伪造正在迅速改进,检测方法必须跟上. “这是一个不断发展的领域,检测和生成技术经常陷入猫捉老鼠的游戏中,卡奇说.
有偏见的系统会损害公正性、准确性、可信度和人权,并产生严重后果 法律后果. 生成式人工智能项目应该从设计之初就减少偏见, 说Karchi.
在从事数据科学和软件项目时,他发现了两项特别有用的技术:
他还指出了将用户反馈纳入产品开发周期的重要性, 哪些可以为感知到的偏见和不公平的结果提供有价值的见解. 最后, 雇佣多样化的技术人员将确保考虑不同的观点,并有助于遏制算法和人工智能的偏见.
尽管有许多关于数据同意和版权的Privacy的生成人工智能担忧, 在这里,我们重点关注保护用户数据Privacy,因为这可以在软件开发生命周期中实现. 生成式人工智能在多个方面使数据容易受到攻击:它可以泄露用作训练数据的敏感用户信息,并将用户输入的信息泄露给第三方提供商, 发生在 三星公司机密 被暴露.
霍曾与想要从文档聊天机器人获取敏感或专有信息的客户合作,并使用安全保护系统保护用户输入的数据 标准模板 它使用了几个关键组件:
“这种方法可以以私密的方式实现类似chatgpt的用户体验,霍兹说。. 工程师们可能会采用类似的方法,并采用创造性的问题解决策略来设计以Privacy为首要任务的生成式人工智能解决方案——尽管生成式人工智能训练数据仍然会带来重大的Privacy挑战,因为它来自 网络爬行.
Transparency意味着让生成的AI结果尽可能地易于理解和解释. 没有它,用户就无法有效地检查和评估人工智能生成的内容. 虽然我们可能无法解决 人工智能的黑匣子问题 在不久的将来,开发者可以采取一些措施来提高生成人工智能解决方案的Transparency.
古普塔在一系列功能中提升了Transparency 1nb.ai, 一个数据元分析平台 是否在帮助弥合数据科学家和商业领袖之间的鸿沟. 使用自动代码解释,1nb.Ai创建文档,并通过团队成员可以查询的聊天界面提供数据见解.
“因为我们的生成式人工智能功能允许用户获得自然语言问题的答案, 我们为他们提供了原始的参考资料,从中检索到答案(e).g.(从他们的存储库中找到一本数据科学笔记本).” 1nb.ai还明确规定了平台上的哪些功能使用生成式ai, 所以用户有代理权,知道风险.
研究聊天机器人的开发人员可以做出类似的努力来揭示来源,并指出人工智能在应用程序中的使用时间和方式——如果他们能说服利益相关者同意这些条款的话.
生成式人工智能伦理不仅重要和紧迫,而且很可能是有利可图的. 执行合乎道德的商业惯例,例如 环境、社会和治理计划 与更高的收入有关吗. 就人工智能而言,a 调查 经济学人智库的一项调查发现,75%的高管反对与产品缺乏负责任设计的人工智能服务提供商合作.
将我们对生成式人工智能伦理的讨论扩展到以整个组织为中心的大规模讨论, 在道德发展的五大支柱之外,出现了许多新的考虑. 生成式人工智能将影响整个社会, 企业应该开始解决潜在的困境,以保持领先地位. 人工智能专家建议,企业可以通过以下几种方式主动降低风险:
随着对负责任的商业实践的需求扩大,这些方法的利润也越来越明显, 新的角色——甚至整个业务部门——无疑将会出现. 在AWS, 霍已经确定了FMOps/LLMOps 作为一门日益重要的不断发展的学科,与生成式人工智能伦理有很大的重叠. FMOps(基础模型操作)包括将生成式AI应用程序引入生产并在之后对其进行监控, 他解释说. “因为FMOps包含监控数据和模型等任务, 采取纠正措施, 进行审计和风险评估, 并建立持续改进模型的流程, 在这条管道中实现生成式人工智能伦理的潜力很大.”
无论道德体系在哪里以及如何被纳入每个公司, 很明显,在生成式人工智能的未来,企业和工程师都将投资于道德实践和负责任的发展. 生成式人工智能有能力塑造世界的技术格局, 明确的道德标准对于确保其收益大于风险至关重要.
生成式人工智能可能会彻底改变内容创建和任务自动化, 改变娱乐业等行业, 广告, 和游戏. 健全的道德和安全措施将是必要的,以防止滥用和确保Authenticity.
未来的生成式人工智能模型有可能提高真实感和创造力. 随着这些模型的发展, 它们可能会更好地模仿人类的创造力, 加强个性化, 简化内容生成. 管理它们的道德使用将是一项重大挑战.
我们目前正处于生成式人工智能技术的早期阶段,有GPT-3等模型.5和GPT-4创建逼真的文本. 但实现完全的现实主义(理解所有场景的背景)仍然具有挑战性.
生成式人工智能引发了对深度造假和错误信息产生的伦理担忧, 侵犯Privacy, 以及人工智能决策和对人工智能生成内容的问责制缺乏Transparency.
生成式人工智能由于其潜在的不利影响而备受争议.g., 滥用创造欺骗性内容),以及它带来的关于失业的担忧, 作者, 知识产权所有权.
生成式人工智能的不利影响包括传播错误信息的可能性, 创意产业工作岗位流失的风险, 识别人工智能生成内容的困难, 以及对内容Authenticity的担忧.
是的,生成式人工智能可能会表现出偏见,因为它从可能包含人类偏见的数据中学习. 出于这个原因, 使用多样化是很重要的, 具有代表性的数据集,并进行仔细的模型训练.
生成模型的局限性包括难以处理多模态数据, 对大型数据集的需求, 可能产生不适当的内容, 以及缺乏对生成内容的控制.
世界级的文章,每周发一次.
世界级的文章,每周发一次.