Наш веб-сайт использует файлы cookie, чтобы предоставить вам возможность просматривать релевантную информацию. Прежде чем продолжить использование нашего веб-сайта, вы соглашаетесь и принимаете нашу политику использования файлов cookie и конфиденциальность.

Представлена новая версия ChatGPT: нейросеть может видеть и «шутить»

odessa-life.od.ua

Представлена новая версия ChatGPT: нейросеть может видеть и «шутить»

13 мая 2024 года ОpenAI представил новую модель GPT-4o — голосового помощника с естественным и эмоциональным звучанием и возможностями зрения.

Он умеет в реальном времени анализировать видео/фото, разговаривать голосом, понимать сарказм и шутить в ответ, его даже можно перебивать.

К примеру, ИИ может объяснять, как решать математическую задачу, человек будет писать это на бумаге и показывать на видео/фото ChatGPT, а он будет подсказывать, где есть ошибки.

Статья по теме: Подмена лица и голоса. Что такое дипфейки и можно ли их распознать?

Во время презентации ведущие написали уравнение и показали его GPT-4o через камеру телефона. Ведущий попросил GPT-4o помочь им решить его, но не выдавать ответ. Конечно, GPT-4o провел демонстратора через процедуру решения простого уравнения, как это сделал бы хороший учитель математики. Кроме того, у него даже был ответ на типичный вопрос «Когда я когда-нибудь использую это в реальной жизни?».

Среди новых доступных функций Gpt4-o также загрузка скриншотов и постановка вопросов на основе них, а еще — запоминание предыдущих вопросов и возможность непосредственно выходить в интернет.

Компания заявляет, что GPT-4o будет работать так же, как и GPT-4, но гораздо быстрее. Доступ к новой модели будут выдавать постепенно в течение нескольких недель.

Мультимодальная модель станет основой для нового ChatGPT Voice, более приближенного к человеческому голосу с возможностью настройки эмоциональных тонов голоса.

Несколько нововведений OpenAI не раскрыты, включая модель следующего поколения GPT-5, которая может стать основой платной версии, когда она будет запущена.

С распространением искусственного интеллекта в мире обострилась дискуссия о пользе и вреде прогресса.

Читайте также: Возможности искусственного интеллекта начали использовать мошенники

Например, исследования, проведенные группой ученых из Массачусетского технологического института, показывают, что современные программы искусственного интеллекта могут обманывать людей.

Важно отметить, что это исследование фокусировалось на специфических случаях использования искусственного интеллекта в игровых ситуациях, где целью программы было достижение победы.

Программы искусственного интеллекта, основанные на глубоком обучении, могут развиваться и изменять свое поведение, что делает их более непредсказуемыми.

В исследовании была изучена программа «Цицерон», разработанная компанией Meta Platforms Inc., которая успешно побеждает людей в игре «Дипломатия» путем использования обмана.

Обнаружение способности искусственного интеллекта к обману вызывает опасения в отношении его потенциального использования для мошенничества или вмешательства в выборы.

Сегодня, 14 мая, высокопоставленные делегации из США и Китая проведут переговоры в Женеве по предотвращению рисков и угроз передовых систем искусственного интеллекта, а также по улучшению безопасности в этой сфере. Об этом сообщила спикер Совета нацбезопасности США Эдриен Ватсон.

«Соединенные Штаты и КНР обменяются мнениями о том, как правительства двух стран понимают и пытаются устранить риски передовых систем ИИ», — отметила представитель американской администрации.

Ранее «Одесская жизнь» рассказывала, как использует искусственный интеллект Украина в войне с россией.

  • Последние
Больше новостей

Новости по дням

Сегодня,
17 июня 2024