Denna vecka i AI: Vill shoppare verkligen ha Amazons GenAI?

By | February 3, 2024

Bildkrediter: Beata Zawrzel/NurPhoto/Getty Images

Att hänga med i en bransch som utvecklas lika snabbt som AI är en svår uppgift. Så tills en AI kan göra det åt dig, här är en användbar sammanfattning av de senaste berättelserna i världen av maskininlärning, tillsammans med anmärkningsvärd forskning och experiment som vi inte täckte på egen hand.

Den här veckan tillkännagav Amazon Rufus, en AI-driven shoppingassistent utbildad i e-handelsjättens produktkatalog samt information från hela webben. Rufus bor i Amazons mobilapp och hjälper dig att hitta produkter, göra produktjämförelser och få rekommendationer om vad du ska köpa.

Från omfattande forskning i början av en shoppingresa som “vad ska man tänka på när man köper löparskor?” till jämförelser som “vad är skillnaderna mellan löparskor och löparskor?” …Rufus förbättrar avsevärt hur lätt kunderna hittar och upptäcker de bästa produkterna för att möta deras behov”, skriver Amazon i ett blogginlägg.

Allt det där är jättebra. Men min fråga är vem som ropar efter det? Faktiskt?

Jag är inte övertygad om att GenAI, särskilt i chatbotform, är ett stycke teknik som den genomsnittliga personen bryr sig om, eller ens tänker på. Undersökningarna stöder mig i detta. I augusti förra året fann Pew Research Center att bland de i USA som har hört talas om OpenAI:s GenAI ChatGPT-chatbot (18 % av vuxna), har bara 26 % provat den. Naturligtvis varierar användningen beroende på ålder, och en högre andel unga (under 50) uppger att de har använt det än äldre. Men faktum är att de allra flesta inte vet (eller bryr sig) om att använda vad som utan tvekan är den mest populära GenAI-produkten där ute.

GenAI har sina väl omtalade problem, inklusive en tendens att tillverka fakta, göra intrång i upphovsrätten och sprida partiskhet och toxicitet. Amazons tidigare försök att skapa en GenAI chatbot, Amazon Q, stötte på många problem: den avslöjade känslig information den första dagen av lanseringen. Men jag skulle säga att det största nuvarande problemet med GenAI (åtminstone ur konsumentsynpunkt) är att det finns få universellt tvingande skäl att använda det.

Visst, GenAI som Rufus kan hjälpa till med specifika, smala uppgifter som att shoppa efter tillfälle (t.ex. att hitta vinterkläder), jämföra produktkategorier (t.ex. skillnaden mellan läppglans och olja) och visa bästa rekommendationer (t.ex. (till exempel presenter) för alla hjärtans dag). Men tillgodoser det behoven hos de flesta köpare? Nej, enligt en nyligen genomförd undersökning av e-handelsprogramvaran Namogoo.

Namogoo, som frågade hundratals konsumenter om deras behov och frustrationer när det kommer till näthandel, fann att produktbilder var den absolut viktigaste faktorn för en bra e-handelsupplevelse, följt av recensioner och produktbeskrivningar. Respondenterna rankade sökning på fjärde plats och “enkel navigering” på femte plats; att komma ihåg preferenser, information och köphistorik var näst sist.

Innebörden är att människor i allmänhet köper med en produkt i åtanke; att sökandet är en efterhand. Kanske kommer Rufus att ändra ekvationen. Jag är benägen att tro inte, särskilt om det är en svår lansering (och det kan mycket väl bero på mottagandet av Amazons andra GenAI-shoppingexperiment), men jag antar att konstigare saker har hänt.

Här är några andra anmärkningsvärda AI-historier från de senaste dagarna:

  • Google Maps experimenterar med GenAI: Google Maps introducerar en GenAI-funktion som hjälper dig att upptäcka nya platser. Med hjälp av Large Language Models (LLM) analyserar funktionen de mer än 250 miljoner platserna på Google Maps och bidrag från mer än 300 miljoner Local Guides för att få förslag baserat på vad du letar efter.
  • GenAI-verktyg för musik och mer: I andra Google-nyheter lanserade teknikjätten GenAI-verktyg för att skapa musik, texter och bilder och förde Gemini Pro, en av dess mest kapabla LLMs, till användare av sin Bard-chatbot runt om i världen.
  • Nya öppna AI-modeller: Allen Institute for AI, det ideella AI-forskningsinstitutet grundat av den avlidne Microsoft-grundaren Paul Allen, har släppt flera GenAI-språkmodeller som det hävdar är mer “öppna” än andra och, ännu viktigare, de är licensierade på ett sådant sätt att utvecklare kan använda dem. utan restriktioner för utbildning, experiment och till och med marknadsföring.
  • FCC vidtar åtgärder för att förbjuda AI-genererade samtal: FCC föreslår att användningen av röstkloningsteknik i robosamtal anses vara fundamentalt olaglig, vilket gör det lättare att ladda operatörer för dessa bedrägerier.
  • Shopify lanserar en bildredigerare: Shopify lanserar en GenAI medieredigerare för att förbättra produktbilder. Handlare kan välja en typ från sju stilar eller skriva ett meddelande för att generera en ny fond.
  • GPT, åberopat: OpenAI driver antagandet av GPT, tredjepartsapplikationer som drivs av dess AI-modeller, genom att aktivera ChatGPT användare att anropa dem i valfri chatt. ChatGPT-betalda användare kan lägga till GPT till en konversation genom att skriva “@” och välja en GPT från listan.
  • OpenAI samarbetar med Sunt förnuft: I ett icke-relaterat tillkännagivande sa OpenAI att det samarbetar med Common Sense Media, den ideella organisationen som granskar och värderar lämpligheten hos olika medier och teknologier för barn, för att samarbeta kring AI-riktlinjer och utbildningsmaterial för föräldrar, lärare och unga vuxna.
  • Autonom navigering: The Browser Company, som gör Arc Browser, är på jakt efter att bygga en AI som ska surfa på webben åt dig och ge dig resultat utan att gå via sökmotorer, skriver Ivan.

Mer maskininlärning

Vet en AI vad som är “normalt” eller “typiskt” för en given situation, medium eller uttryck? På vissa sätt är stora språkmodeller unikt lämpade för att identifiera vilka mönster som mest liknar andra mönster i dina datamängder. Och det är faktiskt vad Yale-forskare fann i sin forskning om huruvida en AI kunde identifiera “typiska” av en sak i en grupp andra. Till exempel, med tanke på 100 romanska romaner, vilket är det mest “typiska” och vilket är det minst “typiska” med tanke på vad varumärket har lagrat om den genren?

Intressant (och frustrerande) arbetade professorerna Balázs Kovács och Gaël Le Mens i flera år på sin egen modell, en variant av BERT, och precis när de skulle publicera den kom ChatGPT och på många sätt duplicerade exakt vad de hade gjort . “Du kan gråta”, sa Le Mens i ett pressmeddelande. Men den goda nyheten är att den nya AI och dess gamla optimerade modell tyder på att den här typen av system faktiskt kan identifiera vad som är typiskt och atypiskt inom en datamängd, ett fynd som kan vara användbart i framtiden. De två påpekar att även om ChatGPT stöder deras tes i praktiken, försvårar dess slutna karaktär vetenskapligt arbete.

Forskare vid University of Pennsylvania letade efter ett annat konstigt koncept att kvantifiera: sunt förnuft. Genom att be tusentals människor betygsätta uttalanden som “du får vad du ger” eller “ät inte mat efter utgångsdatumet” baserat på deras “sunta förnuft”. Som väntat, även om mönster uppstod, fanns det “få erkända övertygelser på gruppnivå.”

“Våra fynd tyder på att varje persons idé om sunt förnuft kan vara unikt deras egen, vilket gör konceptet mindre vanligt än man kan förvänta sig”, säger co-senior författare Mark Whiting. Varför visas detta i ett AI-nyhetsbrev? För som nästan allt annat visar det sig att något så “enkelt” som sunt förnuft, som man kan förvänta sig att AI så småningom ska ha, inte alls är enkelt! Men genom att kvantifiera det på detta sätt kan forskare och revisorer berätta hur mycket sunt förnuft en AI har eller vilka grupper och fördomar den är i linje med.

På tal om fördomar, många stora språkmodeller är ganska flexibla med informationen de får i sig, vilket innebär att om du ger dem rätt budskap kan de reagera stötande, felaktigt eller både och. Latimer är en startup som vill ändra på det med en modell som syftar till att vara mer inkluderande genom design.

Även om det inte finns många detaljer om deras tillvägagångssätt, säger Latimer att deras modell använder utökad generationshämtning (avsedd att förbättra svar) och mycket unikt licensierat innehåll och data från många kulturer som vanligtvis inte finns representerade i dessa databaser. Så när du frågar om något, tar modellen inte till någon 1800-talsmonografi för att svara dig. Vi kommer att lära oss mer om modellen när Latimer släpper mer information.

“/>

Bildkrediter: Purdue / Bedrich Benes

Men en sak som en AI-modell definitivt kan göra är att odla träd. Falska träd. Forskare vid Purdues Digital Forestry Institute (där jag skulle vilja arbeta, ring mig) skapade en superkompakt modell som realistiskt simulerar trädtillväxt. Detta är ett av de problem som verkar enkelt men som inte är det; Du kan simulera tillväxten av ett träd som fungerar om du gör ett spel eller en film, visst, men hur är det med seriöst vetenskapligt arbete? “Även om AI har blivit till synes allestädes närvarande, har det hittills visat sig vara mycket framgångsrikt i att modellera 3D-geometrier som inte är relaterade till naturen”, säger huvudförfattaren Bedrich Benes.

Deras nya modell väger bara ungefär en megabyte, vilket är extremt litet för ett artificiellt intelligenssystem. Men naturligtvis är DNA ännu mindre och tätare och kodar för hela trädet, från rot till knopp. Modellen fungerar fortfarande i abstraktioner (det är inte på något sätt en perfekt simulering av naturen), men den visar att komplexiteten i trädtillväxt kan kodas i en relativt enkel modell.

Äntligen en robot från forskare vid University of Cambridge som kan läsa punktskrift snabbare än en människa, med 90 % noggrannhet. Varför frågar du? Det är faktiskt inte för blinda människor att använda: teamet beslutade att det var en intressant och lätt kvantifierbar uppgift att testa känsligheten och hastigheten hos robotfingertoppar. Om du kan läsa punktskrift bara genom att zooma in på den är det ett gott tecken! Du kan läsa mer om detta intressanta tillvägagångssätt här. Eller titta på videon nedan:

Youtube affisch



Leave a Reply

Your email address will not be published. Required fields are marked *