Вопрос этики остаётся ключевым при разработке и внедрении искусственного интеллекта. Альтман подчеркивает: именно люди должны определять правила игры, а ИИ обязан строго им следовать. Однако на практике процесс создания этих правил далеко не однозначен. Разные регионы мира подходят к регулированию ИИ по-своему. Европа делает ставку на жёсткие законы, которые обеспечивают безопасность, но нередко тормозят инновации; США и Китай придерживаются более гибких подходов, что позволяет быстрее внедрять технологии, но порождает риски злоупотреблений.
Одной из главных проблем остается вопрос ответственности. Если ИИ принимает решения, кто должен нести за это ответственность? Это касается не только технологических компаний, но и государственных органов, которым предстоит разрабатывать адекватные механизмы регулирования. "Нам нужно найти баланс между развитием и контролем, чтобы технологии служили обществу, а не угрожали ему," — подчёркивает Альтман.
Еще одним вызовом является прозрачность работы ИИ. Многие модели, включая самые передовые, действуют как "чёрные ящики", то есть процесс их работы скрыт, и пользователи не могут увидеть, как именно модель пришла к тому или иному решению. Такое отсутствие прозрачности вызывает опасения, снижает доверие к технологиям и усложняет поиск ошибок в их работе. Альтман считает, что создание более понятных и прозрачных систем должно стать приоритетом для разработчиков.
Этические вопросы также касаются равного доступа к технологиям. Если регуляция станет слишком сложной, она может усилить разрыв между развитыми и развивающимися странами, что усугубит неравенство. "Мы обязаны сделать так, чтобы технологии приносили пользу всем, а не только избранным," — заключает Альтман.