притисни ентер »

ВИ: Лажните факти и претстави на четботовите сѐ уште проблем
ВИ: Лажните факти и претстави на четботовите сѐ уште проблем

ВИ: Лажните факти и претстави на четботовите сѐ уште проблем

Лажните претстави и измислените факти, т.е. лагите се присутни во разговорите со чет-ботови со вештачка интелигенција, уште од самиот почеток, па подобрувањата на моделите теоретски би требало да ја намалат зачесетеноста тие несакани појави, пишува „Њујорк тајмс“ ( New York Times ). Најновите водечки ВИ-модели на „Опен-АИ“ ( OpenAI ) – „ГПТ o3“ и „ГПТ

ВИ: Лажните факти и претстави на четботовите сѐ уште проблем

ВИ: Лажните факти и претстави на четботовите сѐ уште проблем

Лажните претстави и измислените факти, т.е. лагите се присутни во разговорите со чет-ботови со вештачка интелигенција, уште од самиот почеток, па подобрувањата на моделите теоретски би требало да ја намалат зачесетеноста тие несакани појави, пишува „Њујорк тајмс“ ( New York Times ). Најновите водечки ВИ-модели на „Опен-АИ“ ( OpenAI ) – „ГПТ o3“ и „ГПТ

ChatGPT „падна“ на тестот за знаење: Моделот со вештачка интелигенција генерира 79% неточни информации!

ChatGPT „падна“ на тестот за знаење: Моделот со вештачка интелигенција генерира 79% неточни информации!

Халуцинациите, измислените факти и отворените лаги се присутни во чет-ботовите со вештачка интелигенција уште од нивниот почеток, а подобрувањата на моделот теоретски би требало да ја намалат нивната фреквенција. Најновите водечки модели на OpenAI, GPT-3 и GPT-4-mini, се дизајнирани да ја имитираат човечката логика. За разлика од претходните верзии,

ChatGPT сè повеќе и повеќе лаже, а никој нема објаснување зошто

ChatGPT сè повеќе и повеќе лаже, а никој нема објаснување зошто

Најновите модели на вештачка интелигенција од компанијата OpenAI сè повеќе измислуваат неточни информации, а експертите немаат објаснување за овој загрижувачки тренд. Најпрво, за што станува збор? Според извештајот на „Њујорк тајмс“, истражувањето на OpenAI покажа дека нивните најнови модели на ChatGPT (o3 и o4-mini) халуцинираат, односно измислуваат

ChatGPT станува попаметен, но и повеќе измислува и лаже

ChatGPT станува попаметен, но и повеќе измислува и лаже

Историјата е полна со брилијантни, но несигурни поединци, а оваа особина, се чини, не ја заобиколила ниту вештачката интелигенција. Според истражувањето спроведено од OpenAI и споделено со NewYork Times, нивните најнови модели на ChatGPT AI, GPT o3 и o4-mini покажуваат значителна тенденција за халуцинирање, т.е. фабрикување факти. Моделите GPT o3 и

OpenAI во паника поради премногу послушното однесување на GPT-4o

OpenAI во паника поради премногу послушното однесување на GPT-4o

Нова верзија на GPT-4o претерано им удоволува на корисниците, дури и кога станува збор за штетни или опасни барања, што предизвикува загриженост за менталното здравје на корисниците и општата безбедност. Компанијата OpenAI призна сериозен пропуст направен при последното ажурирање на моделот GPT-4o, кога вештачката интелигенција стана премногу послушна

Вештачката интелигенција се соочува со неочекуван проблем: Колку е попаметна, толку повеќе ѝ се случува нешто што никој не го предвиде

Вештачката интелигенција се соочува со неочекуван проблем: Колку е попаметна, толку повеќе ѝ се случува нешто што никој не го предвиде

Вештачката интелигенција (АИ) одамна се бори со таканаречените „халуцинации“ – елегантен термин што индустријата го користи за да ги опише измислиците што големите јазични модели (LLM) често ги претставуваат како факти. Иако новите АИ модели сè почесто се дизајнираат да „размислат“ пред да одговорат, проблемот не се намалува – туку се влошува.