一般性问题

问:什么是 Amazon Rekognition?

Amazon Rekognition 作为一项服务,能够让您轻松地将功能强大的可视化分析添加到应用程序。借助 Rekognition Image,您可以轻松构建功能强大的应用程序来搜索、验证和组织数百万个图像。借助 Rekognition Video,您可以从存储的流视频或实时流视频中提取基于运动的上下文,并帮助您对其进行分析。

Rekognition Image 是一种图像识别服务,可以检测物体、场景、活动、地标、人脸、主色和图像质量。Rekognition Image 还可以提取文本、识别名人以及图像中的不当内容。您还可以使用该服务搜索和比较面孔。

Rekognition Video 是一种视频识别服务,可以检测活动;了解帧中人物的移动情况;识别在 Amazon S3 中存储的视频中的对象、名人和不当内容以及实时视频流。Rekognition Video 可以通过视频检测人物并对其进行跟踪,即使他们的面孔不可见或整个人可能进出场景。例如,可将其用于某个应用程序,当有人将包裹送到您家门口时发送实时通知。借助 Rekognition Video,您还可以编制诸如对象、活动、场景、地标、名人及面孔等元数据的索引,从而使视频搜索变得容易。

问:什么是深度学习?

深度学习是机器学习的一个子领域,是人工智能的重要分支之一。其目的是通过使用具有由多个线性和非线性变换组成的多个处理层的深度图来从原始数据推断高级抽象。深度学习大致上基于大脑中的信息处理和通信模型。深度学习使用从大量的注释数据中学到的特征代替人工编写的特征。其通过利用高效算法迭代估计深度图中成千上万的参数来进行学习。

卷积深度神经网络 (CNN)、递归神经网络等几种深度学习架构业已在计算机视觉、语音识别、自然语言处理和音频识别中得到了应用,以产生关于各种任务的最前沿结果。

Amazon Rekognition 是 Amazon AI 系列服务的一部分。Amazon AI 服务使用深度学习技术来理解图像、将文本转换成逼真的语音以及构建直观的会话文本和语音界面。

问:使用 Amazon Rekognition 需要具备深度学习方面的专业技能吗?

不需要。借助 Amazon Rekognition,您不必构建、维护或升级深度学习管道。

为在复杂的计算机视觉任务 (如对象和场景检测、面部分析和面部识别) 方面获得准确的结果,需要对深度学习系统进行适当调整并为其提供海量带有标签的真实数据进行训练。获取、清理和准确地标记数据是一项耗时且代价高昂的任务。此外,训练深度神经网络需要付出昂贵的计算成本,并且通常需要使用图形处理单元 (GPU) 构建的自定义硬件。

Amazon Rekognition 是一种完全托管式服务,已预先进行过图像和视频识别任务方面的训练,因此,您不必投入时间和资源创建深度学习管道。Amazon Rekognition 会继续通过融入最新的研究成果和获取新的训练数据来提高其模型的准确度。这使您能够专注于设计和开发高价值的应用程序。

问:Amazon Rekognition 最常见的使用案例有哪些?

Rekognition Image 最常见的使用案例包括:

  • 可搜索的图像库
  • 基于面孔的用户验证功能
  • 情绪分析
  • 面部识别
  • 图像审核

Rekognition Video 最常见的使用案例包括:

  • 视频存档的搜索索引
  • 轻松筛选视频以获得明显和暗示性内容

问:如何开始使用 Amazon Rekognition?

如果还没有注册 Amazon Rekognition,您可以单击 Amazon Rekognition 页面上的“Try Amazon Rekognition”(试用 Amazon Rekognition) 按钮,然后完成注册过程。您必须拥有 Amazon Web Services 账户才能访问此服务;如果还没有账户,则在注册期间,系统将提示您创建一个账户。注册后,您可以通过 Amazon Rekognition 管理控制台使用您自己的图像和视频试用 Amazon Rekognition,或下载 Amazon Rekognition 开发工具包来开始创建您自己的应用程序。有关更多信息,请参阅我们的分步入门指南

问:Amazon Rekognition 支持哪些图像和视频格式?

Amazon Rekognition Image 目前支持 JPEG 和 PNG 图像格式。您可以提交 S3 对象或字节数组形式的图像。Amazon Rekognition Video 操作可以分析存储在 Amazon S3 存储桶中的视频。视频必须使用 H.264 编解码器进行编码。支持的文件格式为 MPEG-4 和 MOV。编解码器是软件或硬件,可以压缩数据以加快传送,并将接收到的数据解压缩为其原始形式。H.264 编解码器通常用于录制、压缩和分配视频内容。视频文件格式可能包含一个或多个编解码器。如果 MOV 或 MPEG-4 格式的视频文件不适用于 Rekognition Video,请检查用于编码视频的编解码器是否为 H.264。

问:Amazon Rekognition 支持多大的文件大小?

以 S3 对象形式传递时,Amazon Rekognition Image 支持高达 15MB 的图像文件大小;以图像字节数组形式提交时,它支持高达 5MB 的图像文件大小。以 S3 文件形式传递时,Amazon Rekognition Video 支持大小高达 10 GB 的文件和时间长达 6 小时的视频。

问:图像分辨率如何影响 Rekognition Image API 结果的质量?

Amazon Rekognition 支持各种图像分辨率。为获得最佳效果,我们建议使用 VGA (640x480) 或更高的分辨率。Amazon Rekognition 接受的最低图像分辨率为 80 x 80 像素,但低于 QVGA (320 x 240) 的图像可能会增大遗漏面孔、对象或不当内容的几率。

问:Amazon Rekognition Image 能够检测和分析多小的对象?

一般来说,请确保图片中存在的最小对象或面部至少占据图片较短一边(以像素为单位)的 5%。例如,如果您使用 1600x900 的图像,则最小的面部或对象在任一维度上应至少为 45 个像素。

问:如何获取人工审核的 Amazon Rekognition 预测?

Amazon Rekognition 可直接与 Amazon Augmented AI (Amazon A2I) 集成,以便您可以轻松地将低置信度预测从Amazon Rekognition 图像传送给人工审核者。使用用于内容审核的 Amazon Rekognition API 或 Amazon A2I 控制台,您可以指定 Amazon A2I 将预测传送给审核者时所处的条件,该条件可以是置信度阈值或随机抽样百分比。如果您指定置信度阈值,Amazon A2I 将仅传送那些低于该阈值的预测进行人工审核。您可以随时调整这些阈值,以确保在准确性和经济效益性之间实现适当均衡。或者,如果您指定采样百分比,Amazon A2I 将传送随机预测样本进行人工审核。这可以帮助您实施审计,以定期监控预测的准确性。Amazon A2I 还为审核人员提供了一个 Web 界面,其中包含他们完成审核任务所需的所有说明和工具。有关使用 Amazon Rekognition 实施人工审核的更多信息,请参阅 Amazon A2I 网页

问:视频分辨率如何影响 Rekognition Video API 结果的质量?

系统经过训练可识别大于 32 像素 (在最短的维度上) 的面孔,这些面孔将转换为可识别的最小面孔大小,在 QVGA 分辨率下大约 1/7 的屏幕较小维度到高清 1080p 分辨率下 1/30 的屏幕维度之间变化。例如,在 VGA 分辨率下,对于小于 1/10 屏幕较小维度的面孔,用户应期望较低的效果。

问:还有什么可以影响 Rekognition Video API 的质量?

除了视频分辨率之外,严重模糊、快速移动的人物、照明条件、姿势也可能会影响 API 的质量。

问:适合 Rekognition Video API 的首选用户视频内容是什么?

此 API 最适合在正常色彩和照明条件下使用正面视野拍摄的消费者和专业视频。此 API 未针对黑白、IR 或极端照明条件进行了测试。建议对误报敏感的应用程序丢弃置信度得分低于所选 (特定于应用程序) 置信度得分的输出。

问:Amazon Rekognition 在哪些 AWS 区域可用?

如需获取已推出 Amazon Rekognition 的全部区域列表,请参阅 AWS 区域表

标签检测

问:什么是标签?

标签是基于其内容在图像中找到的对象、场景或概念。例如,热带海滩上的人物照片可能包含“人物”、“水”、“沙”、“棕榈树”和“泳装”(对象)、“海滩”(场景)、“户外”(概念) 等标签。 

问:什么是置信度得分,如何使用它?

置信度得分是一个介于 0 与 100 之间的数字,用于指示给定预测正确的概率。以上面的热带海滩为例,如果对象和场景检测过程对于标签“水”返回 99 的置信度分数,对于标签“棕榈树”返回 35,则说明这张图像很有可能包含水但不包含棕榈树。

对检测错误 (假阳性) 非常敏感的应用程序应丢弃置信度得分低于某一阈值的结果。最佳阈值因应用而异。在许多情况下,将最低置信度值设为高于默认值可获得最佳的用户体验。

问:什么是对象和场景检测?

对象和场景检测是指分析图片或视频,根据其视觉内容分配标签的过程。Amazon Rekognition Image 通过 DetectLabels API 来完成此操作。 您可以使用此 API 自动识别数千种对象、场景和概念,并为每个标签返回置信度得分。DetectLabels 使用的默认置信度阈值为 50。对象和场景检测是需要搜索和组织大型图像库的客户的理想选择,如依赖于用户生成内容的消费者和生活方式应用、寻求改进其定位算法的广告技术公司等。

问:Amazon Rekognition 能否检测对象位置并返回边界框?

能,Amazon Rekognition 可以在图片和视频中检测到许多常见对象的位置,例如“人”、“汽车”、“枪”或“狗”。对于所找到的对象的每个实例,您可以获得边框的坐标,以及置信度分数。有关对象边界框的 API 响应结构的更多详情,请参阅本文档

问:Amazon Rekognition 能否提供有关检测到的标签间关系的信息?

能,对于找到的每个标签,Amazon Rekognition 都会返回其父项、别名和类别(如果存在)。父项按层次顺序返回到“父项”字段中。第一个父标签是直接父项,后面的标签则是父项的父项。例如,当识别出“汽车”时,Amazon Rekognition 将返回两个父标签:“车辆”(父项)和“交通运输”(父项的父项)。别名是与主标签具有相同含义的标签,并在“别名”字段中返回。例如,由于“手机”是“移动电话”的别名,因此 Amazon Rekognition 会在“手机”标签的“别名”字段中返回“移动电话”。类别根据共同主题对标签进行分组,并在“类别”字段中返回。例如,由于“狗”是“动物和宠物”类别下的标签,因此 Amazon Rekognition 会在“狗”标签的“类别”字段中返回“动物和宠物”。有关受支持标签及其分类的完整列表的更多详细信息,请访问 Amazon Rekognition 标签检测文档

问:Amazon Rekognition 支持哪些类型的标签?

Rekognition 支持数千种属于常见类别的标签,包括但不限于:

  • 人物和事件:“婚礼”、“新娘”、“婴儿”、“生日蛋糕”、“吉他手”等
  • 食品和饮料:“苹果”、“三明治”、“葡萄酒”、“蛋糕”、“比萨饼”等
  • 自然与户外:“海滩”、“山”、“湖”、“日落”、“彩虹”等
  • 动物和宠物:“狗”、“猫”、“马”、“虎”、“海龟”等
  • 家庭和花园:“床”、“桌子”、“后院”、“枝形吊灯”、“卧室”等
  • 运动休闲:“高尔夫”、“篮球”、“曲棍球”、“网球”、“远足”等
  • 植物和花:“玫瑰”、“郁金香”、“棕榈树”、“森林”、“竹子”等
  • 艺术与娱乐:“雕塑”、“绘画”、“吉他”、“芭蕾”、“马赛克”等
  • 运输和车辆:“飞机”、“汽车”、“自行车”、“摩托车”、“卡车”等
  • 电子产品:“电脑”、“手机”、“摄像机”、“电视”、“耳机”等。
  • 地标:“布鲁克林大桥”、“斗兽场”、“艾菲尔铁塔”、“马丘比丘”、“泰姬陵”等。

问:对于视频分析,对象和场景检测有何不同?

Rekognition Video 使您能够自动识别数以千计的对象(如车辆或宠物)和活动(如庆祝会或舞会),并为您提供每个标签的时间戳和置信度分数。它还依赖视频中的运动和时间上下文准确地识别复杂的活动(如“吹蜡烛”或“灭火”)。

问:我找不到需要的标签。如何申请新标签?

请通过 Amazon Rekognition 控制台向我们发送您的标签请求,方法是在“搜索所有标签”部分的输入字段中键入标签名称,然后单击“请求 Rekognition 检测”所请求的标签。Amazon Rekognition 会根据客户反馈不断扩展其标签目录。

问:什么是 Image Properties?

Image Properties 是 Amazon Rekognition Image 的一项功能,用于检测主色和图像质量。它可以检测整个图像的主色、图像前景、图像背景,以及具有局部边界框的对象,还可以通过亮度、锐度和对比度得分来衡量图像质量。可以使用 IMAGE_PROPERTIES 作为输入参数,通过 DetectLabels API 来调用 Image Properties,无论是否使用 GENERAL_LABEL 输入参数进行标签检测。要了解更多信息,请访问 Amazon Rekognition 标签检测文档

问:如何确定主色?

Image Properties 会返回四种格式的主色:RGB、十六进制代码、CSS 颜色和简化颜色。Amazon Rekognition 首先按像素百分比识别主色,然后将这些颜色映射到 140 CSS 调色板、RGB、十六进制代码和 12 种简化颜色(即“绿色”、“粉色”、“黑色”、“红色”、“黄色”、“青色”、“棕色”、“橙色”、“白色”、“紫色”、“蓝色”、“灰色”)。默认情况下,除非客户指定要返回的颜色数,否则 Image Properties 会返回十(10)种主色,。API 最多可以返回 12 种主色。

问:如何解释亮度、锐度和对比度分数?

Image Properties 会为每个亮度、锐度和对比度分数提供一个介于 0 到 100 之间的值。例如,曝光不足的图像将返回低亮度分数,而明亮的图像将返回高亮度分数。

问:如何检查 Amazon Rekognition 是否已更新其模型?

Amazon Rekognition 会返回 LabelModelVersion 参数,您可通过该参数了解模型是否已更新。对象和场景检测模型会根据客户反馈经常更新。

Amazon Rekognition 自定义标签

问:我是否可以使用自定义标签分析面部、自定义文本检测?

否。自定义标签用于查找图像中的对象和场景。自定义标签不适用于分析面部、自定义文本检测。您应该使用其他 Rekognition API 执行这些任务。请参阅文档了解面部分析、文本检测。

问:我是否可以使用自定义标签查找不安全的图像内容?

可以。自定义标签用于查找图像中的对象和场景。对自定义标签进行训练后,可以检测特定于用例的不安全图像内容,可以检测特定于您用例的不安全图像内容。此外,请参阅审核 API 文档,以检测通用的不安全图像内容。

问:训练一个自定义模型需要多少图像?

训练自定义模型所需的图像数量取决于您希望模型预测的自定义标签的变化和训练数据的质量。例如,叠加在图像上的一个独特徽标可以通过 1-2 个训练图像检测到,而需要在很多变体(规模、看法、变形)下检测的更为精细的徽标可能需要按顺序使用具有高质量注释的数十个到数百个训练示例。如果您已经有很多带有标签的图像,我们建议使用尽可能多的图像来训练模型。请参阅文档了解最大训练数据集大小的限制。

虽然有时候可能需要数百个图像来训练具有高准确度的自定义模型,但使用自定义标签,您可以先对每个标签使用数十个图像来训练模型,审核您的测试结果以了解哪里不起作用,然后相应地添加新训练图像并再次训练以迭代改进您的模型。

问:我应该为我的自定义模型预置多少推理计算资源?

所需的并行推理计算资源数量取决于您在给定时间点需要处理的图像数量。单个资源的吞吐量取决于图像大小、图像复杂性(检测到的图像显示出多少)和自定义模型复杂性等因素。我们建议您监测您预置自定义模型所需的频率及一次需要处理的图像数量,以便最有效地安排自定义模型的预置。
如果您希望定期处理图像(例如,每天一次或每周一次,或一天中预定的时间),则应在预定时间开始预置您的自定义模型,处理所有图像,然后停止预置。如果您不停止预置,即使不处理任何图像,也会向您收取费用。

问:我的训练失败。是否会向我收费?

否。如果您的训练失败,将不会向您收取计算资源费用。

内容审核

问:什么是内容审核?

Amazon Rekognition 使用深度学习来检测明显或暗示性的成人内容、暴力内容、武器、视觉干扰内容、毒品、酒精、烟草、仇恨符号、赌博,以及图像和视频中的粗鲁手势。除了根据存在的不当或冒犯性内容对图像或视频进行标记之外,Amazon Rekognition 还会返回一个带有置信度的分级标签列表。这些标签会指明所检测到的内容类型的特定子类别,从而让开发人员能够进行更细化的控制,以便筛选和管理大量用户生成的内容 (UGC)。这一 API 可以用于社交和交友网站、相片分享平台、博客和论坛、儿童应用程序、电子商务网站、娱乐和在线广告服务等应用场景。

问:Amazon Rekognition 会检测哪些类型的不当、冒犯性和不想要的内容?

您可在此处找到 Amazon Rekognition 检测到的内容类别的完整列表。

Amazon Rekognition 可以返回一个分级标签列表,并附带检测到的每个标签的置信度。例如,对于一张不当图像,Rekognition 可能会返回最高级别的标签“明显的裸露”及其置信度。开发人员可以使用这些元数据总体标记内容,例如需要对所有类型的明显成人内容进行标记时。同时,Rekognition 还会提供“男性裸体图形”等更多信息及其置信度,从而返回细化到第二级别的信息。开发人员可以利用这一信息来构建更为复杂的筛选逻辑,从而服务于不同地域和人口统计学。

请注意,内容审核 API 并不能筛选出所有不当或冒犯性的内容。另外,此 API 无法检测出某个图片是否包含违法内容(如儿童色情内容)或不正常成人内容。

如果您需要检测图片中其他类型的不当内容,请通过下文介绍的反馈流程联系我们。

问:如何才能知道我目前使用的是哪个模型版本?

Amazon Rekognition 会定期完善其模型。要跟踪模型版本,您可以使用 API 响应中的“ModerationModelVersion”字段。

问:如何确保 Amazon Rekognition 符合我的图像或视频审核使用案例的准确度目标?

Amazon Rekognition 的内容审核模型已经经过调整和大规模测试,但我们不建议您用自己的数据集来测量准确性和衡量性能。

您可以在 API 请求中使用“MinConfidence”参数,以便在内容检测 (灵敏度) 和检测准确性 (精度) 之间实现平衡。如果降低“MinConfidence”,您可能会检测出大多数不当内容,但也有可能检测出事实上不属于不当内容的内容。如果提高“MinConfidence”,您可能会确保检测出的所有内容事实上都是不当内容,但可能不会标记出某些不当内容。

问:怎样向 Rekognition 提供反馈以便改进内容审核 API?

请通过 AWS 客户支持向我们发送您的请求。Amazon Rekognition 会根据客户反馈持续扩大检测到的不当内容的类型。请注意,该反馈流程不适用于违法内容(例如儿童色情内容)。

面部分析

问:什么是面部分析?

面部分析是检测图像中的面部并从中提取相关面部属性的过程。Amazon Rekognition Image 接收并返回图像中检测到的每副面孔的边界框以及诸如性别、太阳镜的存在和面部标记点等属性。Rekognition Video 将返回在视频中检测到的带有时间戳的面孔、位置、边界框以及面部标记点。

问:我可以从 Amazon Rekognition 获得哪些面部属性?

Amazon Rekognition 可以针对检测到的每副面孔返回以下面部属性,以及每个属性的边界框和置信度得分:

  • Gender
  • Smile
  • Emotions
  • Eyeglasses
  • Sunglasses
  • Eyes open
  • Mouth open
  • Mustache
  • Beard
  • Pose
  • Quality
  • 面部标记

问:什么是面部姿态?

面部姿态是指检测到的面部在俯仰、翻滚和偏转轴上的旋转。这些参数中的每一个都返回为 -180 到 +180 度之间的角度。面部姿态可用于查找面部边界多边形 (与矩形边界框相对) 的方向、测量变形、精确跟踪面部等。

问:什么是面部质量?

面部质量使用锐度和亮度这两个参数来描述检测到的面部图像的质量。两个参数都返回为 0 和 1 之间的值。您可以对这些参数应用阈值,以筛选照明充足和锐利的面部。这对于对面部图片质量要求较高的应用(如面部比较和面部识别)非常有用。

问:什么是面部标记?

面部标记是一组突出点,通常位于关键面部组成部分 (如眼睛、鼻子和嘴) 的边角、尖端或中点处。Amazon Rekognition DetectFaces API 返回一组面部标记,可用于裁剪面部、进行面部变形、覆盖自定义遮罩以创建自定义筛选器等。

问:可以在一张图像中检测多少副面孔?

您可以使用 Amazon Rekognition 在一张图像中检测多达 100 副面孔。

问:对于视频分析,面部分析有何不同?

借助 Rekognition Video,您可以在视频中找到相应面孔并分析面孔属性,如是否面带微笑、眼睛是否睁着或是否在表达情感。Rekognition Video 将返回检测到的带有时间戳的面孔、检测到的每副面孔的位置、边界框以及诸如左眼、右眼、鼻子、左嘴角、右嘴角等标记点。这些位置和时间信息可用于随时间轻松地跟踪用户情绪,并提供诸如自动面孔边框、高光或裁剪等其他功能。视频分析不支持用户搜索。

问:除了视频分辨率之外,还有什么可以影响 Rekognition Video API 的质量?

除了视频分辨率之外,优质和有代表性的面部 (属于要搜索的面部集合) 具有重大影响。将每个人的多个面孔实例与胡子、眼镜、姿势(侧貌和正貌)等变量结合使用将会显著改善效果。通常,移动非常快速的人物可能会降低灵敏度。另外,模糊的视频也可能会降低质量。

面孔比较

问:什么是面部比较?

面孔比较是将一副面孔与一副或多副面孔进行比较以测量相似性的过程。借助 CompareFaces API,您可以通过 Amazon Rekognition Image 测量两张图像中的面部属于同一个人的可能性。API 将源输入图像中的面孔与在目标输入图像中检测到的每副面孔进行比较,并针对每次比较返回相似度得分。您还能够获得检测到的每副面孔的边界框和置信度得分。您可以利用面部比较技术以近乎实时的方式根据某人的档案照片验证其身份。

问:可以使用包含多副面孔的源图像吗?

可以。如果源图像包含多副面孔,CompareFaces 会检测最大的面孔并使用它来与在目标图像中检测到的每副面孔进行比较。

问:可以对多少副面孔进行比较?

您可以将源图像中的一副面孔与目标图像中的多达 15 副检测到的面孔进行比较。

问:什么是面孔搜索?

面孔搜索是使用输入面孔在存储面孔集合中搜索相似匹配面孔的过程。借助面孔搜索,您可以轻松构建进行银行付款的多重身份验证、面向员工的自动化楼宇进出管理系统等应用程序。

问:什么是面孔集合?如何创建?

面孔集合是面孔向量(即面孔的数学表示形式)的可搜索索引。Rekognition 不会在您的集合中存储面孔图像。利用 CreateCollection API,您可以轻松地在受支持的 AWS 区域中创建集合并获取一个 Amazon 资源名称(ARN)。每个面孔集合都具有与其关联的唯一 CollectionId。

问:如何将面孔添加到集合中进行搜索?

要向现有的面孔集合中添加面孔,请使用 IndexFaces API。此 API 接受 S3 对象或图像字节数组形式的图像,并将检测到的面孔向量表示添加到面孔集合中。IndexFaces 会为添加的每个面孔向量返回一个唯一的 FaceId 和面孔边界框。

使用 CreateUser 和 AssociateFaces API 可以聚合同一个人的多个面孔矢量,从而创建和存储用户向量。用户向量比单个面孔向量更可靠,因为它们包含多个面孔向量,这些向量具有不同程度的照明度、清晰度、姿势、外观差异等。与使用单个面孔向量的面孔搜索相比,使用用户向量进行面孔搜索可以显著提高准确性。用户向量与关联的面孔向量存储在同一个集合中。

问:如何从集合中删除面孔?

要从现有的面孔集合中删除面孔,请使用 DeleteFaces API。此 API 将对使用 CollectionId 提供的面孔集合执行操作,删除与 FaceId 列表对应的条目。如果 FaceID 与用户向量相关联,则首先需要使用 DisassoicateFaces API 调用将其从用户向量中删除。或者,您可以使用 DeleteUser API 从集合中删除用户矢量。

有关添加和删除面孔的详细信息,请参阅我们的“管理集合”示例。

问:如何在面孔集合中搜索用户?

创建用户和关联的 FaceID 后,可以使用图片(SearchUsersByImage)、用户 ID(SearchUsers)或 FaceID(SearchUsers)进行搜索。这些 API 接受一副输入面孔并返回一组按相似度得分从高到低排列的匹配面孔。有关更多详情,请参阅我们的“搜索用户”示例。

问:如何在面孔集合中搜索面孔?

创建好带有索引的面部集合后,您可以使用图片 (SearchFaceByImage) 或 FaceId (SearchFaces) 在其中搜索面部。这些 API 接受一副面孔并返回一组按相似度得分从高到低排列的匹配面部。有关更多详情,请参阅我们的搜索面孔示例。

问:视频分析的面孔搜索有何不同?

Rekognition Video 允许您针对具有数千万个面孔的集合进行实时面孔搜索。首先,创建一个面部集合,您可以将面孔存储在该集合中,这是面孔特征的矢量表示。然后,Rekognition 会在整个视频中搜索面孔集合,找出看着相似的面孔。Rekognition 将针对视频中的每个面孔返回一个置信度得分,以便您可以在应用程序中显示可能匹配的结果。视频分析不支持用户搜索。

问:除了视频分辨率之外,还有什么可以影响 Video API 的质量?

除了视频分辨率之外,优质和有代表性的面部 (属于要搜索的面部集合) 具有重大影响。将每个人的多个面部实例与胡子、眼镜、姿势 (侧貌和正貌) 等变量结合使用将会显著改善效果。通常,移动非常快速的人物可能会降低灵敏度。另外,模糊的视频也可能会降低质量。

名人识别

问:什么是名人识别?

Amazon Rekognition 的名人识别是基于深度学习的易用 API,用于检测和识别某一领域中著名、显赫和成绩突出的人士。构建的 RecognizeCelebrities API 可以规模化运营,并能识别许多行业的名人,如政治家、体育运动员、商业、娱乐和媒体名人等。我们的名人识别功能非常适合需要根据自己独特兴趣索引和搜索名人数字图片库的客户。

问:通过名人识别 API 可以识别哪些人?

Amazon Rekognition 只能识别深度学习模型经训练后能够识别的名人。请注意,RecognizeCelebrities API 并不是权威名单,也决不是详尽的名人列表。此功能旨在根据客户的需求和反馈包括尽可能多的名人。我们会不断添加新名称,但如果被其他团体或我们的客户视为名人的人员未被“名人识别”所识别,这并不表示我们对其名人身份的看法。如果您希望看到“名人识别”所识别出的其他名人,请提交反馈。

问:通过 Amazon Rekognition API 识别的名人是否可以申请从此功能中删除?

可以。如果名人希望从此功能中删除,则他或她可以向 AWS 客户支持发送电子邮件,我们将处理此删除请求。

问:支持哪些来源提供有关名人的其他消息?

API 支持一个可选的来源列表,用于提供有关名人的其他信息,以此作为 API 响应的一部分。目前,如果有 IMDB URL,我们就会提供。我们可能会在以后添加其他来源。

问:对于视频分析,名人识别有何不同?

借助 Rekognition Video,您可以检测和识别知名人士在视频中出现的时间和位置。时间编码的输出包括名人的姓名和唯一 ID、边界框坐标、置信度得分和指向名人相关内容的 URL,例如,名人的 IMDB 链接。即使有时脸部被遮挡,也会在视频中检测到名人。通过此功能,您可以为数字视频库编制索引并搜索它们,获取与您的特定营销和媒体需求相关的使用案例。

问:除了视频分辨率之外,还有什么可以影响 Rekognition Video API 的质量?

移动非常快速的名人和模糊的视频可能会影响 Rekognition Video API 的质量。另外,男演员/女演员常用的浓妆和伪装也会影响质量。

文本检测

问:什么是文本检测?

文本检测是 Amazon Rekognition 的一项功能,您可借助它来检测和识别图像或视频中的文本,如街道名称、标题、产品名称、叠加图形、视频字幕和车辆牌照。文本检测专门用于真实的图像和视频,而不是文档图像。Amazon Rekognition 的 DetectText API 接收图像并返回每个检测到的字符串的文本标签和边界框以及置信度分数。例如,在图像共享和社交媒体应用程序中,您可以根据包含相同文本标签的图像索引启用可视化搜索。在安全应用程序中,您可以根据交通摄像头拍摄的图像中的车牌号识别车辆。同样,对于视频,您可以使用 StartTextDetection 和 GetTextDetection API 检测文本并获得每次检测的置信度评分和时间戳。在媒体和娱乐应用程序中,您可以创建文本元数据,以支持搜索相关内容,如新闻、体育成绩、商业广告和标题。您还可以查看检测到的违反策略或合规性的文本,例如垃圾邮件发送者覆盖的电子邮件地址或电话号码。

问:Amazon Rekognition 文本检测支持哪种类型的文本?

文本检测专门用于真实的图像和视频,而不是文档图像。它支持大多数拉丁语脚本中的文本和嵌入各种布局、字体和样式,以及以各种方向作为横幅和海报覆盖在背景对象上的数字。文本检测可识别每个图像或视频帧中最多 50 个字符序列,并将它们列为单词和行。文本检测支持文本从水平轴旋转最多 -90 至 +90 度。

问:是否可以将文本检测限制为图像或视频帧中的特定区域?

可以,您可以使用文本检测筛选选项在 API 请求中指定最多 10 个感兴趣区域 (ROI)。Amazon Rekognition 将仅返回这些区域内的文本。 

问:是否可以按单词置信度或边界框大小过滤文本检测?

可以,在 API 请求中,您可以使用文本检测筛选选项为最小置信度评分或最小边界框尺寸指定阈值。

问:如何向 Rekognition 提供反馈以便改进其文本识别?

请通过 AWS 客户支持向我们发送您的请求。Amazon Rekognition 会根据客户反馈持续扩大识别出的文本内容类型。

PPE 检测

问:Amazon Rekognition 可以检测到哪些个人防护装备 (PPE)?

Amazon Rekognition 的“DetectProtectiveEquipment”可以检测常见类型的面罩、手套和头罩。要了解更多信息,请参阅功能文档。您还可以使用 Amazon Rekognition 自定义标签来检测 PPE,例如醒目的背心、安全护目镜和您企业独有的其他 PPE。 要了解如何使用 Amazon Rekognition 自定义标签进行自定义 PPE 检测,请访问 Github 存储库

问:Amazon Rekognition 能否检测防护装备位置并返回边界框?

能。Amazon Rekognition 的“DetectProtectiveEquipment”API 可以检测防护装备的位置,如图像中人员佩戴的面罩、手套和头罩。对于所检测到的每个防护装置,您可以获得边界框矩形坐标,以及置信度得分。有关 API 响应的详细信息,请参阅文档

问:该服务能否检测出面罩是否佩戴正确?

Amazon Rekognition 的“DetectProtectiveEquipment”API 输出为检测到的每个防护装置提供“CoversBodyPart”值 (true/false) 和置信度布尔值。这提供了有关佩戴人员是否将防护装备佩戴在身体相应部位信息。对相应身体部位上是否存在防护装备的预测有助于过滤出 PPE 在图像中但实际上未佩戴在人身上的情况。但是,它并不表示或暗示该人员已得到防护装备的充分保护,或该人员已正确佩戴防护装备。

问:Amazon Rekognition PPE 检测能否识别被检测的人员?

不能。Amazon Rekognition PPE 检测不能执行面部识别或面部比较,无法识别被检测的人员。

问:在哪里可以找到有关 API 限制和延迟的更多信息?

请参阅 Amazon Rekognition PPE 检测文档以获取 API 限制和延迟的最新详细信息。 

问:如何将工作场所摄像头拍摄的图像发送至 Amazon Rekognition?

您可通过多种方式采集工作场所摄像头拍摄的图像。请参阅 Amazon Rekognition PPE 检测博客了解更多信息。

问:PPE 检测如何定价?

Amazon Rekognition PPE 检测的定价类似于其他 Amazon Rekognition Image API,根据图像定价。要了解更多信息,请访问 Amazon Rekogntion 定价页面。 

Amazon Rekognition Streaming Video Events

问:什么是 Amazon Rekognition Streaming Video Events?
Amazon Rekognition Streaming Video Events 使用机器学习从连接的摄像头检测对象,实时提供可操作的提示。Amazon Rekognition Streaming Video 事件与您新的和现有的 Kinesis Video Streams 协作处理视频流式传输(每个运动事件最多 120 秒),并在检测到所需的感兴趣对象时立即通知您。您可以使用这些通知

  • 向终端用户发送智能提示,如“在前门检测到包裹”。
  • 提供家居自动化功能,如“检测到人时打开车库灯”。
  • 与 Echo 设备等智能助手集成,在检测到对象时提供 Alexa 公告。
  • 提供智能搜索功能,如搜索检测到包裹的所有视频片段。

问:Amazon Rekognition Streaming Video Events 的工作原理是什么?
您可以使用新的或现有的 Kinesis Video Streams 开启 Amazon Rekognition Streaming Video 事件。在为 Amazon Rekognition 配置流式传输处理器设置时,您可以选择想要检测的标注(人、宠物或包裹)、Rekognition 为每个事件应该处理的视频持续时间(每个运动事件最多 120 秒)和/或要通过 Rekognition 处理的帧上的感兴趣区域。Rekognition Streaming Video Event API 仅在您向 Rekognition 发送通知开启处理视频流式传输时才会处理视频。

连接的摄像头上检测到运动时,您可以向 Rekognition 发送通知,以开启处理视频流式传输。Rekognition 会处理相应的 Kinesis Video Stream,即运动后检测,以寻找您指定的所需对象。一旦检测到所需对象,Amazon Rekognition 将向您发送通知。此通知包括检测到的对象、边界框、对象的放大图像和时间戳。

问:Amazon Rekognition Streaming Video Events 支持哪些标注?
Amazon Rekognition Streaming Video Events 可以支持人、宠物和包裹。

问:Amazon Rekognition Streaming Video API 可以检测到哪些宠物和包裹类型?
Amazon Rekognition Streaming Video Event API 的宠物检测支持检测猫狗。该 API 可以高精度检测中型和大型纸箱。该 API 还可以检测较小的盒子、气泡邮件信封和文件夹,但偶尔可能会漏掉其中一些对象。

问:检测到的每个标注会单独收费吗? 我可以选择要检测哪些标注吗?
不,不会为每个标注单独收费。您将按 Rekognition 处理的串流媒体视频的持续时间付费。在配置流式传输处理设置时,您可以选择加入特定标注(宠物、包裹),也可以选择加入所有三个标签(人、宠物、包裹)。

问:我是否需要将视频连续流式传输到 Amazon Rekognition?
不,您不需要将视频连续流式传输到 Amazon Rekognition。

问:我是否应该创建新的 Kinesis Video Streams (KVS) 才能使用 Streaming Video Events?
Amazon Rekognition Streaming Video Events 可用于新的和现有的 Kinesis Video Streams。只需将相关 KVS 流式传输与 Amazon Rekognition Streaming Video Events API 集成,即可开启对 KVS 流式传输进行视频分析。

问:Amazon Rekognition 什么时候会给我发送通知?
Amazon Rekognition 会在运动检测后开启处理视频流式传输。您可以配置处理此视频流式传输的持续时间(每个事件最多 120 秒)。一旦 Amazon Rekognition 在视频流式传输中检测到感兴趣的对象,Rekognition 就会向您发送通知。此通知包括检测到的对象类型、边界框、检测到的对象的放大图像和时间戳。

问:标注检测支持哪些分辨率和 fps?
为了保持低成本和低延迟,Amazon Rekognition Streaming Video Events 支持 1080p 或更低分辨率的视频流式传输。Rekognition 以 5 fps 的速度处理视频流式传输。

问:串流视频支持哪些编解码器和文件格式?
Amazon Rekognition Video 支持 MPEG-4 (.mp4) 或 MOV 格式的 H.264 文件。

问:每个事件所处理视频的最长持续时间是多少?
每个事件可以处理最多 120 秒的视频。

问:我可以为视频流式传输选择要处理帧的特定区域吗?
可以,作为 StreamProcessor 配置的一部分,您可以选择帧上要处理的感兴趣区域。Amazon Rekognition 将只处理帧的该特定区域。

问:可以使用 Amazon Rekognition 处理多少个并发视频流式传输?
Amazon Rekognition Streaming Video Events 可以支持每个 AWS 客户 600 个并发会话。如果您需要增加此限额,请联系您的客户经理。

Amazon Rekognition 存储视频分析

问:Amazon Rekognition Video 可以检测哪些类型的实体?
Amazon Rekognition Video 可以检测视频中的对象、场景、地标、面孔、名人,文字和不当内容。您还可以使用自己的存储库或面孔图像集合来搜索视频中出现的面孔。

问:Amazon Rekognition Video 支持哪些类型的文件格式和编解码器?
Amazon Rekognition Video 支持 MPEG-4 (.mp4) 或 MOV 格式的 H.264 文件。如果您的视频文件使用其他编解码器,则可以使用 AWS Elemental MediaConvert 将它们转码为 H.264。

问:Amazon Rekognition Video 异步 API 如何工作?
Amazon Rekognition Video 可以处理存储在 Amazon S3 存储桶中的视频。您可以使用异步操作集:通过调用 StartLabelDetection 之类的启动操作来启动视频分析,以检测对象和场景。请求的完成状态发布到 Amazon Simple Notification Service (SNS) 主题。要从 Amazon SNS 主题获取完成状态,可以使用 Amazon Simple Queue Service (SQS) 队列或 AWS Lambda 函数。获得完成状态后,可以调用 Get 操作(如 GetLabelDetection)来获取请求的结果。有关可用的 Amazon Rekognition Video API 的列表,请参阅此页面

问:如何在视频中找到每次检测的时间线?
Amazon Rekognition Video 按时间戳或视频片段返回标签结果。您可以使用 GetLabelDetection API 中的 AggregateBy 输入参数来选择您希望如何组织这些结果。 

  • 当标签结果按时间戳组织时,每次 Amazon Rekognition Video 在视频时间线中检测到该标签时,都会返回每个标签。例如,如果在 2000 毫秒和 4000 毫秒时检测到“狗”,Amazon Rekognition Video 将返回“狗”的 2 个标签条目,一个为 2000 毫秒,另一个为 4000 毫秒。 
  • 当标签结果按视频片段组织时,Amazon Rekognition Video 将返回在多个连续帧中检测到标签时的视频片段。视频片段由开始时间戳、结束时间戳和持续时间定义。例如,如果在 2000 毫秒和 4000 毫秒的 2 个连续帧中检测到“狗”,Amazon Rekognition Video 将为“狗”返回 1 个标签条目,开始时间戳为 2000 毫秒,结束时间戳为 4000 毫秒,持续时间为 2000 毫秒。 

要了解有关时间戳和片段的更多信息并查看示例 API 响应,请访问检测视频中的标签

问:可以使用 Amazon Rekognition Video 运行多少个并发视频分析作业?
您可以使用 Amazon Rekognition Video 最多处理 20 个并发作业。有关限制的更多详细信息,请参阅限制页面

问:我应该使用哪种视频分辨率?
Amazon Rekognition Video 可自动处理各种视频分辨率和视频质量。我们建议使用 720p(1280×720 像素)至1080p(1920x1080 像素)或其他高宽比的等效分辨率,以获得最佳效果。分辨率非常低(例如 QVGA 或 240p)和质量很差的视频可能会对结果质量产生不利影响。

问:什么是人物跟踪?
使用 Rekognition Video,您可以找到每个人在视频时间线上的路径。即使摄像机处于运动状态,Rekognition Video 也可以检测人物,并返回每个人物的边界框和面部,以及面部属性和时间戳。对于零售应用程序,这可以匿名地生成客户见解,例如,顾客如何通过购物中心的通道,或者在收银台的排队时间。

使用 Amazon Rekognition Video 的媒体分析

问:Amazon Rekognition Video 可以检测哪些类型的媒体分析片段?

Amazon Rekognition Video 可以检测下列类型的一段或完整媒体分析:

  • 黑框:视频通常包含一小段空的黑框,没有音频,用于提示插入广告或界定节目段结尾(例如场景或开场白)。借助 Amazon Rekognition Video,您可以检测到此类黑框序列,以自动执行广告插入、为 VOD 打包内容以及界定各种节目段或场景。带有音频的黑框(例如淡出或画外音)被视为内容且不会返回。
  • 字幕:Amazon Rekognition Video 可帮助您自动识别电影或电视节目的片头和片尾字幕的开头和结尾的确切帧。通过这些信息,您可以生成“追剧标记”或交互式查看器提示,例如 VOD 应用程序中的“下一集”或“跳过介绍”。Amazon Rekognition Video 经过训练,可以处理多种类型的片头和片尾字幕样式 — 从简单的滚动字幕到更具挑战性的字幕加内容、场景字幕或动漫中的风格化字幕。
  • 镜头:镜头是由一台相机连续拍摄的一系列相互关联的连续照片,表示在时间和空间上的连续动作。借助 Amazon Rekognition Video,您可以检测每个镜头的开始、结束和持续时间,并且可以统计内容片段中的所有镜头。镜头元数据可用于以下应用程序,例如使用选定的镜头创建宣传视频,生成避免在镜头之间过渡内容的预览缩略图集,以及将广告插入不会干扰观众体验的位置,例如镜头中间有人在说话。
  • 彩条:Amazon Rekognition Video 允许您检测显示 SMPTE 彩条的视频部分,SMPTE 或 EBU 彩条是以特定模式显示的一组颜色,可确保在广播监视器、节目和相机上正确校准颜色。如需了解关于 SMPTE 彩条的更多信息,请参阅 SMPTE 彩条。当彩条连续显示为默认信号而不是内容时,此元数据可用于通过从内容中删除彩条段来为 VOD 应用程序准备内容,也可用于检测录音中的广播信号丢失等问题。
  • 镜头号码牌:镜头号码牌是包含关于剧集、演播室、视频格式、音频通道和其他信息的元数据的部分,通常位于视频开头。Amazon Rekognition 可以识别开始和结束点,例如镜头号码牌,让操作员能够轻松地使用文本元数据或者在准备最终查看的内容时方便地删除镜头号码牌。
  • 演播室徽标:演播室徽标是显示参与制作节目的制作演播室的徽标或标记的序列。Amazon Rekognition 可以识别此类序列,让操作员能够轻松地查看它们以识别演播室。
  • 内容:内容是指电视节目或电影中包含节目或相关元素的部分。黑框、字幕、彩条、镜头号码牌和演播室徽标都不属于此类内容。通过 Amazon Rekognition Video,您可以检测视频中每个内容片段的开始和结束点,这样就能够多次使用,例如查找节目运行时间或查找用于特定用途的某些片段。例如,视频开头部分对上一集的快速回顾就是一种内容类型。同样,额外的字幕后内容也可以出现在字幕结束之后。有些视频在视频结尾可能有“无文字”内容,这是包含覆盖文字的所有节目内容集,但是删除了文字以便于使用其他语言进行国际化制作。使用 Amazon Rekognition Video 检测了所有内容片段后,您就可以应用特定领域的知识,例如“我们视频始终从回顾开始”,以进一步将每个片段分类或将其发送到人工审核阶段。

Amazon Rekognition Video 为每个检测到整体提供开始、结束、持续时间和时间代码,并为它们各自提供时间戳(毫秒)、SMPTE 格式代码和帧编号选项。

问:如何开始使用 Amazon Rekognition Video 进行媒体分析?

Amazon Rekognition Video 片段检测 API 提供了媒体分析功能。这是一个异步 API,由以下两个操作组成:StartSegmentDetection(用于启动分析)和 GetSegmentDetection(用于获取分析结果)。要开始使用,请参阅文档

如果您想可视化媒体分析的结果,或者甚至尝试将自己的视频与其他 Amazon AI 服务(例如 Amazon Transcribe)一起使用,请使用 Media Insights 应用程序 – 一种无服务器框架和演示应用程序,可使用 AWS Machine Learning 和媒体服务轻松为您的视频、音频、文本和图像资源生成见解并开发应用程序。您可以使用提供的 AWS CloudFormation 模板轻松地加速自己的演示应用程序,以试验自己的视频并显示分析结果。

问:什么是帧精确时间码?

帧精确时间码为视频或实体的相关片段提供精确的帧编号。媒体公司通常使用 SMPTE(美国电影电视工程师协会)格式 hours:minutes:seconds:frame number(例如 00:24:53:22)处理时间码。

问:Amazon Rekognition Video 片段检测帧是否准确?

是的,Amazon Rekognition Video 片段检测 API 提供了帧精确 SMPTE 时间码,以及每次检测开始和结束的毫秒时间戳。

问:Amazon Rekognition Video 片段检测可以处理哪些类型的帧速率格式?

Amazon Rekognition Video 片段检测可自动处理整数、小数和掉帧标准(帧速率介于 15 至 60fps 之间)。例如,片段检测支持常见的帧速率(例如 23.976fps、25fps、29.97fps 和 30fps)。在每种情况下,都使用帧速率信息来提供帧精确时间码。

问:我可以应用哪些筛选选项?

您可以在提出 API 请求时为每个片段类型指定最低置信度。例如,您可以筛选出置信度得分低于 70% 的任何片段。对于黑框检测,您还可以控制视为黑色像素的最大像素亮度,例如,值 40 代表颜色范围 0 到 255。此外,您还可以控制将框归类为黑框要求该框中的像素达到此黑色像素亮度标准的百分比,例如 99%。使用这些筛选条件,在检测黑框时您还可以考虑变化的视频质量和格式。例如,与现代数字视频相比,从磁带存档回收的视频可能噪声很高,并且黑度等级不同。有关更多详细信息,请参阅此页面

计费

问:Amazon Rekognition 如何统计已处理的图像数量?

对于接受图像作为输入的 API,Amazon Rekognition 会将已分析图像的实际数量统计为已处理的图像数量。DetectLabels、DetectModerationLabels、DetectFaces、IndexFaces、RecognizeCelebrities 以及 SearchFaceByImage 和 Image Properties 都属于这一类别。对于 CompareFaces API,当需要传递两张图像作为输入时,只有源图像会被计入已处理的图像数量。

对于不需要图像作为输入参数的 API 调用,Amazon Rekognition 将每次 API 调用计入已处理的图像数量。SearchFaces 属于此类别。

其余的 Amazon Rekognition API(ListFaces、DeleteFaces、CreateCollection、DeleteCollection 和 ListCollections)不计入已处理的图像数量。

问:Amazon Rekognition 如何统计已处理的视频的分钟数?

对于已存档的视频,Amazon Rekognition 会统计由 API 成功处理的视频的分钟数,并根据时间计费。对于实时流视频,您可以为我们成功处理的视频每五秒收费一次。

问:Amazon Rekognition 对哪些 API 收费?

Amazon Rekognition Image 会对以下 API 收费:DetectLabels、DetectModerationLabels、DetectText、DetectFaces、IndexFaces、RecognizeCelebrities、SearchFaceByImage、CompareFaces、SearchFaces 和 Image Properties。Amazon Rekognition Video 根据视频的持续时间(以分钟为单位)收费,由 StartLabelDetection、StartFaceDetection、StartFaceDetection、StartTextDetection、StartContentModeration、StartPersonTracking、StartCelebrityRecognition、StartFaceSearch 和 StartStreamProcessor API 成功处理。

问:Amazon Rekognition 的费用是多少?

请参阅 Amazon Rekognition 定价页面了解最新的价格信息。

问:在我的面部集合中存储特征向量需要付费吗?

是的。Amazon Rekognition 每月向每 1000 张面部向量收取 0.01 USD 的费用。有关详细信息,请参阅定价页面

问:Amazon Rekognition 是否参与 AWS 免费套餐?

是的。作为 AWS 免费使用套餐的一部分,您可以免费开始使用 Amazon Rekognition。注册后,Amazon Rekognition 新客户在前 12 个月可享受:每月免费分析 5000 张图像。在此免费套餐中,您可以使用所有 Amazon Rekognition API(Image Properties 除外),而且还能免费存储多达 1000 张面部图像。此外,Amazon Rekognition Video 客户第一年可以每月免费分析 1000 分钟的视频。

问:价格是否含税?

有关税费的详细信息,请参阅 Amazon Web Services 税务帮助

AWS 集成

问:Amazon Rekognition Video 能否处理存储在 Amazon S3 上的图像?

可以。您只需将 Amazon Rekognition API 指向您的 S3 存储桶,就可以开始分析存储在 Amazon S3 中的图像。您不需要移动数据。有关如何在 Amazon Rekognition API 调用中使用 S3 对象的更多详情,请参阅我们的检测标签练习

问:使用 Amazon Rekognition 时,我能否使用另一个区域中的 Amazon S3 存储桶中存储的图像?

不能。请确保您要使用的 Amazon S3 存储桶与您的 Amazon Rekognition API 终端节点位于同一个区域内。

问:如何使用 Amazon Rekognition 批量处理多个图像文件?

您可以按照 GitHub 上的 Amazon Rekognition 批处理示例中所述的步骤批量处理您的 Amazon S3 图像。

问:如何结合使用 AWS Lambda 与 Amazon Rekognition?

Amazon Rekognition 提供对 AWS Lambda 的无缝访问,并让您能够对 Amazon S3、Amazon DynamoDB 等 AWS 数据存储进行基于触发器的图像分析。要将 Amazon Rekognition 与 AWS Lambda 配合使用,请按照此处介绍的步骤进行操作,并选择 Amazon Rekognition 蓝图。

问:Amazon Rekognition 是否可与 AWS CloudTrail 搭配使用?

可以。Amazon Rekognition 支持将以下操作作为事件记录到 CloudTrail 日志文件中:CreateCollection、DeleteCollection、CreateStreamProcessor、DeleteStreamProcessor、DescribeStreamProcessor、ListStreamProcessors 和 ListCollections。有关与 AWS CloudTrail 集成的 Amazon Rekognition API 调用的更多详细信息,请参阅“使用 AWS CloudTrail 记录 Amazon Rekonition API 调用”。

数据隐私

问:是否存储由 Amazon Rekognition 处理的图片和视频输入,以及如何由 AWS 使用?

除非您根据下文说明选择退出,否则 Amazon Rekognition 可以存储和使用仅由该服务单独处理的图片和视频输入,提供和维护服务,并且改进和提高 Amazon Rekognition 及其他 Amazon 机器学习/人工智能技术的质量。使用您的内容对于持续改进您的 Amazon Rekognition 客户体验(包括相关技术的开发和培训)至关重要。我们不会根据您的内容中可能包含的任何个人身份信息来向您或您的最终用户推荐产品、服务或进行营销。您的信任以及隐私与内容的安全性是我们最重视的问题,我们会采取适当并且先进的技术和物理控制措施(包括静态和动态加密)来防止他人未经授权访问或披露您的内容,并确保我们依照对您的承诺使用您的内容。有关更多信息,请参阅 https://aws.amazon.com/compliance/data-privacy-faq/。您可以通过使用 AWS Organizations 退出策略选择不再使用您的图片和视频输入来改进或提高 Amazon Rekognition 及其他 Amazon 机器学习/人工智能技术的质量。有关如何退出的信息,请参阅管理 AI 服务退出策略

问:是否可以删除 Amazon Rekognition 存储的图片和视频输入?

可以。您可以通过联系 AWS Support,请求删除与您的账户相关联的图像和视频。删除图片和视频输入会使您的 Amazon Rekognition 体验变差。

问:谁有权访问由 Amazon Rekognition 处理和存储的内容?

只有经过授权的员工才能访问由 Amazon Rekognition 处理的内容。您的信任以及隐私与内容的安全性是我们最重视的问题,我们会采取适当并且先进的技术和物理控制措施 (包括静态和动态加密) 来防止他人未经授权访问或披露您的内容,并确保我们依照对您的承诺使用您的内容。有关更多信息,请参阅 https://aws.amazon.com/compliance/data-privacy-faq/

问:我是否仍然拥有由 Amazon Rekognition 处理和存储的内容?

您始终保留对您的内容的所有权,我们只会在您同意的情况下使用您的内容。

问:由 Amazon Rekognition 处理的内容是否会移到使用 Amazon Rekognition 的 AWS 区域之外?

由 Amazon Rekognition 处理的任何内容都将静态加密并存储在您使用 Amazon Rekognition 的 AWS 区域中。除非您按照下文说明选择退出,否则 Amazon Rekognition 处理的部分内容可能存储在另一个 AWS 区域中,仅用于持续改进和开发您的 Amazon Rekognition 客户体验及其他 Amazon 机器学习/人工智能技术。您可以通过联系 AWS Support,请求删除与您的账户相关联的图像和视频。您的信任以及隐私与内容的安全性是我们最重视的问题,我们会采取适当并且先进的技术和物理控制措施 (包括静态和动态加密) 来防止他人未经授权访问或披露您的内容,并确保我们依照对您的承诺使用您的内容。有关更多信息,请参阅 https://aws.amazon.com/compliance/data-privacy-faq/。如果您选择不再使用您的内容来改进和提升 Amazon Rekognition 及其他 Amazon 机器学习/人工智能技术的质量,您的内容将不会存储在其他 AWS 区域中。有关如何退出的信息,请参阅管理 AI 服务退出策略

问:是否可以将 Amazon Rekognition 用于针对不满 13 岁的儿童并受《儿童网络隐私保护法》(COPPA) 约束的网站、项目或其他应用程序?

可以。但您需要遵守 Amazon Rekognition 服务条款的规定,包括按照 COPPA 的要求来提供任何需要的通知并获得任何需要的、可验证的家长同意,才能将 Amazon Rekognition 用于全部或部分针对不满 13 岁的儿童的网站、项目或其他应用程序。

问:怎样确定我的网站、项目或应用程序是否受 COPPA 的约束?

要了解 COPPA 的要求并获取关于如何确定您的网站、计划或其他应用是否受 COPPA 约束的指南,请直接参阅美国联邦贸易委员会提供并维护的各种资源。 该网站还提供有关如何确定某种服务是否全部或部分面向不满 13 岁儿童的信息。

问:Amazon Rekognition 服务是否符合 HIPAA 要求?

Amazon Rekognition 服务符合 HIPAA 要求,包含在 AWS 商业伙伴协议 (AWS BAA) 中。如果您已签订 AWS BAA,Amazon Rekognition 将仅根据 AWS BAA 条款使用、披露和维护您的受保护健康信息 (PHI)。

访问控制

问:如何控制对 Amazon Rekognition 的用户访问?

Amazon Rekognition 与 AWS Identity and Access Management (IAM) 集成。 您可以使用 AWS IAM 策略确保只有授权用户才能访问 Amazon Rekognition API。有关更多详细信息,请参阅 Amazon Rekognition 身份验证和访问控制页面

报告滥用

问:如何举报潜在的 Amazon Rekognition 滥用行为?

如果怀疑他人以滥用或非法的方式使用 Amazon Rekognition,或侵犯了您或他人的权利,请举报此类使用行为,AWS 将调查此问题

详细了解 Amazon Rekognition 定价

访问定价页面
准备好开始构建?
开始使用 AWS Rekognition
还有更多问题?
联系我们