Post by tarinislaminfo on Dec 11, 2023 11:30:31 GMT 2
章作者: Terry Sma, Infor 高级副总裁兼亚太及日本地区总经理 人工智能 已成为热门话题。2023年, 我们 收到关于AI 有 可能导致人类灭绝的警告,声称 AI 对国家安全构成威胁,并呼吁冻结国防数据(经过训练的)AI ,直到超出其能力 设置至少六个月。包括各种类型的 生成式人工智能(GenAI) 模型的 人工智能 “教父” 的 退休 , ChatGPT 似乎是最受关注的。与此同时,关于这一问题也引起了广泛的争论。改变日常生活以及企业环境的力量 企业将能够利用 科技创造的力量 如何才能 真正实现这一改变?人工智能 在商业中的应用会带来什么结果? 尽管GenAI 科学 仍然很新,但可以肯定的是,我们已经到达了最后一点。人工智能 和一般处理的变化 大多数 生成式 AI 的主导大型语言模型 ( LLM) 都擅长 自然语言处理( NLP) ,因为它可以帮助各个行业中使用 NLP 的 应用程序,例如帮助用户访问数据库消息的交互式帮助 知识/用户手册 以及通过交互式聊天机器人创建的其他文档 在 GenAI 平台上,这将允许用户搜索信息 想要更容易 虽然这是一个非常困难的挑战,但企业的另一个好处 你将立即获得的是使用 NLP 在整个组织中搜索业务信息的能力。这个业务必须一直发展下去 。企业级软件业务 努力工作的人 寻找一种方法让 GenAI 模型与 现有的NLP 和 AI 完全兼容 通过增强基于上下文的体验,结合 与数字助理语音聊天 或者通过AI 平台使用机器学习 ( ML) 模型和图像识别 来改进业务搜索。 因为 各种形式的 GenAI 允许用户访问许多来源 可以存储多种信息 创建文本和代码 创建预测和推理、执行翻译、分析图像等,因此可用于高端应用程序。它可用于各种组织任务 ,从编写电子邮件、报告、产品文档和网页内容,创建工作描述和规范,到比较产品和供应商、 收集照片。
音乐和视频信息 开展营销活动 这也适用于总结书籍、编辑和审 电报号码数据 查内容。并提供启动各种项目的想法 GenAI的工作 原理 那么这项技术如何付诸实践呢?比如一家拥有IT和技术部门的公司 软件工程可以开始了 最好使用代码生成工具,例如 Microsoft 的 Copilot 或 AWS CodeWhisperer。 对于想要创建的企业 行业特定的语言模型 他们的行业 可以查看一般信息 阅读各个网站的评论和建议或想要收集信息。组织内有数据 来自公共领域,因此 更有用 您可以合并这些信息。使用各种 GenAI 工具和平台 ,例如Open AI 的 ChatGPT 或 AWS Bedrock。 即将到来的挑战 GenAI 世界的变化 正在加速。未对所有问题作出回应的组织 时间可能会被抛在后面。原则上,企业应该开业 我很高兴能够接受这项强大的技术。并不是拒绝使用它,但这并不意味着 GenAI 模型适合在所有类型的业务中使用。而在 GenAI 模型被广泛接受之前,组织层面工作的障碍 当然,问题必须得到解决。许多问题必须首先解决。 Cyborg-1200-55357c66-e1696838367941.png 首先是可靠性问题。虽然创建的内容 基于大语言模型,看起来像 它将是原创的。但实际上内容是 它是对一组信息的模仿。之前训练过的类似数据,众所周知, 人工智能 生成的数据经常包含错误,同一个问题可能有许多不同的答案。 第二个是 隐私问题 由于用户共享的信息和输入 的条件, 用于训练更大的模型。因此,商业秘密或信息 用于识别可能共享的有价值的个人身份信息 (PII) 。导致违反惯例 不经意间遵循了要求。
另外,创建和交换 必须遵循特定的业务要求。根据法律要求和 严格执行信息隐私,例如公司进行评估时。在数据保护影响评估( DPIA) 中, 他们必须确保 并已遵守规定 除了通用数据保护条例(GDPR)之外, GenAI平台 供应商主要 维护企业数据。它不会用来训练通用模型,但是计划使用 GenAI的 企业必须认真对待这个问题。 还有一个偏见的问题,因为 人工智能 会根据提示 创建定制内容。 此外,你只能 根据你喜欢的数据来 训练人工智能 。无需透露 全面的 最后,你 将能够以两种方式确定结果。 尽管GenAI 生成的 内容的性质可能是可信的,但 它可以根据需要有用或有害。但实际上这可能是一个错误。能够影响无辜用户、影响世界的个人观点 他们的观点是值得信赖的。 此外,制造虚假新闻、虚假视频和音频片段的风险将会增加。这是一个影子。 审核过滤器 以上不是 这意味着它无法被编辑。应对这些威胁的方法是实施检查过滤器 适当地应用于最终用户界面,这将有助于确保所有用户 未来,您将可以使用 GenAI 的各种工具 进行商业用途。
音乐和视频信息 开展营销活动 这也适用于总结书籍、编辑和审 电报号码数据 查内容。并提供启动各种项目的想法 GenAI的工作 原理 那么这项技术如何付诸实践呢?比如一家拥有IT和技术部门的公司 软件工程可以开始了 最好使用代码生成工具,例如 Microsoft 的 Copilot 或 AWS CodeWhisperer。 对于想要创建的企业 行业特定的语言模型 他们的行业 可以查看一般信息 阅读各个网站的评论和建议或想要收集信息。组织内有数据 来自公共领域,因此 更有用 您可以合并这些信息。使用各种 GenAI 工具和平台 ,例如Open AI 的 ChatGPT 或 AWS Bedrock。 即将到来的挑战 GenAI 世界的变化 正在加速。未对所有问题作出回应的组织 时间可能会被抛在后面。原则上,企业应该开业 我很高兴能够接受这项强大的技术。并不是拒绝使用它,但这并不意味着 GenAI 模型适合在所有类型的业务中使用。而在 GenAI 模型被广泛接受之前,组织层面工作的障碍 当然,问题必须得到解决。许多问题必须首先解决。 Cyborg-1200-55357c66-e1696838367941.png 首先是可靠性问题。虽然创建的内容 基于大语言模型,看起来像 它将是原创的。但实际上内容是 它是对一组信息的模仿。之前训练过的类似数据,众所周知, 人工智能 生成的数据经常包含错误,同一个问题可能有许多不同的答案。 第二个是 隐私问题 由于用户共享的信息和输入 的条件, 用于训练更大的模型。因此,商业秘密或信息 用于识别可能共享的有价值的个人身份信息 (PII) 。导致违反惯例 不经意间遵循了要求。
另外,创建和交换 必须遵循特定的业务要求。根据法律要求和 严格执行信息隐私,例如公司进行评估时。在数据保护影响评估( DPIA) 中, 他们必须确保 并已遵守规定 除了通用数据保护条例(GDPR)之外, GenAI平台 供应商主要 维护企业数据。它不会用来训练通用模型,但是计划使用 GenAI的 企业必须认真对待这个问题。 还有一个偏见的问题,因为 人工智能 会根据提示 创建定制内容。 此外,你只能 根据你喜欢的数据来 训练人工智能 。无需透露 全面的 最后,你 将能够以两种方式确定结果。 尽管GenAI 生成的 内容的性质可能是可信的,但 它可以根据需要有用或有害。但实际上这可能是一个错误。能够影响无辜用户、影响世界的个人观点 他们的观点是值得信赖的。 此外,制造虚假新闻、虚假视频和音频片段的风险将会增加。这是一个影子。 审核过滤器 以上不是 这意味着它无法被编辑。应对这些威胁的方法是实施检查过滤器 适当地应用于最终用户界面,这将有助于确保所有用户 未来,您将可以使用 GenAI 的各种工具 进行商业用途。