Автор: hotsnail
Дата: 07-03-23 12:32
asahi:
> После се замислих и стигнах до извода, че един AI може да се обучи върху литературата, която ние сме отказали да прочетем когато му е било времето.
Точно това е прословутия ChatGPT - голям езиков модел т.е. наврели са вътре цялата литература, уеб сайтове, новини, вицове и т.н. на различни езици. Английския е най-добър, защото има най-много неща на него в момента. Казват, че дори на мандарин малко отстъпват нещата, дори и в китайските алтернативи на ChatGPT.
Английски, Мандарин, Испански, Португалски, Френски, Немски, Руски имат много голяма база литература и други писмени източници на които се обучава модела. Нещата са много добри там.
Българския език е по-малко разпространен език има по-малко литература, по-малко преса, по-малко вицове, по-малко дигитализирана писменост. За това модела прави и повечко грешки. Има по-малки възможности да синтезира различни стилов текст.
Аз само английски знам и сравнявам с български.
Вероятно е достатъчно да замени повечето автори на новини по сайтове и вестници. Вероятно преводите са по-точни и качествени. А човек може само да прочете оригинала и превода, за да предотврати някакви големи грешки. Езиковия модел не е мислещ човек. Модела само синтезира последователност от срички и граматика. Не рядко модела прави колосални смислови грешки и ги опакова в много красив език и граматика. Последното ги прави трудни за откриване.
В моя опит ако дадеш фактите като точки и поискаш определен тип писмена реч т.е. научна статия, абстракт, план за проект и т.н. AI се справя много добре. Може да поискаш и напътствия за определен тип документ и стил на писане. Може да поискаш да перифразира определен текст.
Намирам, че писането на код също му се отдава доста добре. Може да спести много врмее на опитен програмист. За сега се иска човека да знае изключително добре как трябва да изглежда крайния резултат за да открива грешки, които прави модела.
Публикацията е редактирана (07-03-23 12:40)
|
|