
Secondo uno studio condotto dalla University of Maryland (UMD) insieme a Microsoft su 26 lingue, la lingua più efficace per scrivere prompt per modelli di intelligenza artificiale generativa è risultata essere il polacco, con un tasso di aderenza ai risultati attesi pari all’88%. In seconda posizione si colloca il francese (87 %), mentre l’italiano è al terzo posto (86 %).
Perché proprio il polacco?
Lo studio spiega che il polacco, pur considerato più complesso da imparare per gli esseri umani, presenta una struttura grammaticale e sintattica che aiuta i modelli a interpretare meglio i prompt. In particolare, la presenza di declinazioni e flessioni obbliga a indicare più chiaramente ruoli e relazioni tra parole, riducendo l’ambiguità interpretativa. Sorprendentemente, l’inglese – pur essendo largamente utilizzato nei dataset di addestramento – si è classificato sesto con circa il 83,9 %.
Implicazioni per utenti e sviluppatori
Per chi lavora con modelli generativi come ChatGPT, Gemini, Llama e altri, scegliere la lingua nel prompt può non essere solo una questione di comodità, ma di efficacia. Per il pubblico italiano, il dato che l’italiano sia al terzo posto invita a riflettere sulla qualità e sulla chiarezza del linguaggio usato nei prompt, soprattutto in contesti professionali o tecnici. Per gli sviluppatori, lo studio apre la strada a un prompt engineering multilingue che consideri anche le implicazioni grammaticali della lingua, non solo la traduzione.
Limiti e considerazioni finali
Va però specificato che questa ricerca riguarda determinati modelli, compiti e lingue, e non implica che il polacco sia sempre la lingua “migliore” per ogni contesto d’uso. I ricercatori raccomandano ulteriori verifiche e studi estesi per confermare i risultati in contesti reali e commerciali.
Fonte: Wired
















