СЕО Zoom Эрик Юань заявил, что цифровые двойники заменят людей на видеовстречах в течение пяти-шести лет. По его словам, каждый пользователь будет обладать собственной языковой моделью, обученной на его данных и настроенной для решения конкретных задач в его профессиональной области. Это позволит «двойнику» читать за человека электронные письма, присутствовать на встречах вместо него, отвечать на телефонные звонки и даже самостоятельно принимать решения от его имени. Предполагается, что это освободит людям время, приведет к существенному сокращению рабочего дня и позволит снизить выгорание. О том, когда эта технология может стать массовой и какие несет в себе риски, «Газете.Ru» рассказал эксперт в области искусственного интеллекта Павел Балтабаев.
«Как бы футуристично не звучала эта идея, но на сегодняшний день есть все технологические возможности, чтобы создать таких ИИ-двойников. С появлением мультимодальной модели GPT-4o от OpenAI и анонса ее интеграции с будущей Apple Intelligence в iPhone, стало понятно, что возникновение таких двойников лишь вопрос времени. Не стоит также забывать про постоянное развитие технологии AR/VR, где все эти двойники обретут полноценную жизнь. Скорее всего, уже в этом году мы увидим первые серьезные прототипы таких индивидуальных виртуальных двойников, а массовой технология может стать уже через два-три года, то есть к 2027 году», — объяснил он.
По словам эксперта, безусловно, внедрение такой технологии несет в себе ряд плюсов: людям действительно не придется тратить много времени на встречи и ответы на рабочие письма, но пока что это несет и риски. Стоит отметить, что ответственность за развитие ИИ-двойников лежит на IT-гигантах, поскольку именно они обладают всей полнотой вашей личной информации: от рабочих и личных переписок до потребляемого вами контента. В зависимости от того, как компании отнесутся к этической стороне подобного рода двойников и будет зависеть скорость их внедрения.
«Ключевым риском при создании таких ИИ-двойников является сохранность персональных данных, передаваемых для получения контекста ИИ о человеке. В попытке повторить стиль общения определенного человека на основе предыдущих диалогов и специализации, в которой он работает, ИИ может выдать личные или корпоративные секреты. Помимо этого, стоит выделить риски потери рабочих мест в некоторых профессиях, а также риски так называемых «галлюцинаций ИИ» или случаев, когда двойник может не соответствовать ожидаемому поведению оригинала, выдавая некорректную или необъективную информацию», — отметил он.
Балтабаев подчеркнул, что, пусть пока и сложно себе представить, что на видеовстречах будут присутствовать «боты», вместо людей — это однозначно произойдет уже в ближайшем будущем, потому что технологический прогресс и стремление людей все автоматизировать уже не остановить. И обществу придется адаптироваться к миру с ИИ-двойниками.