Генеральный директор и соучредитель Shaip Ватсал Гия имеет 20-летний опыт работы с программным обеспечением и услугами искусственного интеллекта для здравоохранения и обеспечивает масштабирование бизнес-процессов по требованию с помощью машинного обучения и инициатив искусственного интеллекта. В этой гостевой функции Ватсал Гия поделился ключевыми идеями о том, как устранить предвзятость в разговорном ИИ.
Ключевой вывод из статьи:
- Согласно статистике, точность получения результатов с помощью голосового поиска для американских мужчин составляет 92%, но она снижается до 79% и 69% для белых американских женщин и смешанных американских женщин. Это один из классических примеров предвзятого ИИ.
- Некоторые реальные примеры предвзятого ИИ включают Amazon и Facebook, где мужчины отдавали предпочтение при найме в Amazon, а Facebook ориентировался на клиентов в соответствии с их полом, цветом кожи и религией. Эта предвзятость в ИИ вызвана тремя причинами: данными, людьми и технологиями.
- Чтобы устранить предвзятость ИИ в любом приложении и системе, организации могут использовать такие меры, как сертификация источников и качества данных, мониторинг модели в режиме реального времени и анализ разнообразия данных, прежде чем использовать ИИ в своих операциях.
Читай полную статью здесь: