Се ближи одржувањето на WWDC 2024 конференцијата на која ќе ја видиме целосно работата која Apple ја прави со генеративната вештачка интелигенција. Од компанијата доцнат со воведувањето на овие функции, па се смета дека е доста клучно оваа година да се приклучат на трендот започнат од OpenAI, Microsoft, Google и другите.
Од тоа што може да се види од неколкуте трудови кои ги објавија од компанијата, можно е да очекуваме класичен Apple настап. Тие можеби доцнат, но тоа што ќе го претстават ќе биде нешто поразлично и „подобро“ од конкурентите.
Најнов таков пример е трудот за ReALM – Reference Resolution As Language Modeling. Овој јазичен модел е направен да функционира на самиот уред од корисникот, а Apple се очекува дека ќе гледа повеќето ВИ функции да функционираат на овој начин. Како главна причина за тоа се истакнуваат приватноста и безбедноста на корисниците.
За ReALM се истакнува дека функционира на ниво на GPT-4, а кога се користи посериозна форма од моделот, тој и доста ги надминува перформансите и способноста на овој конкурентен модел.
Тоа што се очекува од ReALM да овозможи е разбирање на контекстот на тоа што го гледа корисникот. На пример, корисникот ќе може да побара од Siri да му даде листа на аптеки во близина, па потоа да додаде да се јави кај таа која е најдолу на листата.
Ова е нешто што класично јазичните модели не можат да го прават или се потребни повеќе ресурси. ReALM ќе биде способен да го разбере барањето на корисникот и да го поврзе со тоа што тој во моментот го гледа и да знае кој е одговорот кој го бара.
Вакви и слични подобрувања се очекуваат од Siri оваа година, па овој асистент веќе не би требало да ги добива критиките кои ги има сега.
Тоа што е интересно и баш чекам да го видам на WWDC е најавата дека за останатите „четбот“ потреби, кои не функционираат локално на уредот, Apple ќе ги користи некој од конкурентните, на пример Gemini од Google.