Для обучения GPT-4 компания OpenAI транскрибировала более миллиона часов видео с YouTube

0 12 980

А сколько же нужно для GPT-5?

Недавно мы сообщали о том, что компании, создающие большие языковые генеративные модели, сталкиваются с проблемой недостатка качественных данных для обучения своих ИИ. Как сообщается, OpenAI частично решила проблему благодаря YouTube. 

Для обучения GPT-4 компания OpenAI транскрибировала более миллиона часов видео с YouTube

создано DALL-E

Ещё для обучения GPT-4 компания создала модель транскрипции аудио Whisper и в итоге перевела в текст более миллиона часов видео с YouTube. The New York Times говорит, что OperAI прекрасно понимала, что это серая зона с юридической точки зрения, но всё равно пошла на это. Вполне возможно, сейчас для обучения GPT-5 компания пользуется в том числе этим же методом. 

Источник говорит, что уже для GPT-4 компания OpenAI фактически исчерпала все запасы качественных данных для обучения, причём ещё в 2021 году.  

Источник

Оставьте ответ

Ваш электронный адрес не будет опубликован.