Gli scienziati scoprono grandi differenze nel modo in cui gli esseri umani e l'intelligenza artificiale "pensano" e le implicazioni potrebbero essere significative / Scientists discover major differences in how humans and AI 'think' — and the implications could be significant
Gli scienziati scoprono grandi differenze nel modo in cui gli esseri umani e l'intelligenza artificiale "pensano" e le implicazioni potrebbero essere significative / Scientists discover major differences in how humans and AI 'think' — and the implications could be significant
Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa
I modelli di intelligenza artificiale hanno difficoltà a formulare analogie quando prendono in considerazione argomenti complessi, come possono fare gli esseri umani, il che significa che il loro utilizzo nel processo decisionale del mondo reale potrebbe essere rischioso. / AI models struggle to form analogies when considering complex subjects, like humans can, meaning their use in real-world decision making could be risky.
Uno studio rivela che l'intelligenza artificiale è sostanzialmente priva della capacità umana di stabilire connessioni mentali creative, il che solleva segnali di allarme sul modo in cui utilizziamo gli strumenti di intelligenza artificiale.
Sappiamo che l'intelligenza artificiale (IA) non può pensare allo stesso modo di una persona, ma una nuova ricerca ha rivelato come questa differenza potrebbe influenzare il processo decisionale dell'IA, portando a conseguenze nel mondo reale per le quali gli esseri umani potrebbero non essere preparati.
Lo studio, pubblicato nel febbraio 2025 sulla rivista Transactions on Machine Learning Research, ha esaminato l'efficacia con cui i modelli linguistici di grandi dimensioni (LLM) riescono a formare analogie.
Hanno scoperto che sia nelle semplici analogie con stringhe di lettere sia nei problemi con matrici digitali (in cui il compito era completare una matrice identificando la cifra mancante), gli esseri umani ottenevano buoni risultati, mentre le prestazioni dell'intelligenza artificiale calavano drasticamente.
Durante la verifica della robustezza dei modelli umani e di intelligenza artificiale su problemi di analogia basati su storie, lo studio ha scoperto che i modelli erano sensibili agli effetti dell'ordine delle risposte (differenze nelle risposte dovute all'ordine dei trattamenti in un esperimento) e potrebbero anche essere stati più inclini a parafrasare.
Nel complesso, lo studio ha concluso che i modelli di intelligenza artificiale sono privi di capacità di apprendimento "zero-shot", in cui uno studente osserva campioni di classi che non erano presenti durante la formazione e fa previsioni sulla classe a cui appartiene in base alla domanda.
La coautrice dello studio Martha Lewis, professoressa associata di intelligenza artificiale neurosimbolica presso l'Università di Amsterdam, ha fornito un esempio di come l'intelligenza artificiale non riesca a svolgere ragionamenti analogici bene come gli esseri umani nei problemi con stringhe di lettere.
"Le analogie con le stringhe di lettere hanno la forma di 'se abcd va ad abce, a cosa va ijkl?' La maggior parte degli umani risponderà 'ijkm', e [l'intelligenza artificiale] tende a dare anche questa risposta", ha detto Lewis a Live Science. "Ma un altro problema potrebbe essere 'se abbcd va ad abcd, a cosa va ijkkl?' Gli umani tenderanno a rispondere 'ijkl': lo schema è quello di rimuovere l'elemento ripetuto. Ma GPT-4 tende a sbagliare problemi [come questi]".
Perché è importante che l'intelligenza artificiale non possa pensare come gli esseri umani
Lewis ha affermato che mentre possiamo astrarre da modelli specifici per regole più generali, gli LLM non hanno questa capacità. "Sono bravi ad identificare ed abbinare modelli, ma non a generalizzare da quei modelli".
La maggior parte delle applicazioni AI si basa in una certa misura sul volume: più dati di training sono disponibili, più pattern vengono identificati. Ma Lewis ha sottolineato che pattern-matching ed astrazione non sono la stessa cosa. "Si tratta meno di cosa c'è nei dati e più di come i dati vengono utilizzati", ha aggiunto.
Per dare un'idea delle implicazioni, l'IA è sempre più utilizzata nella sfera legale per la ricerca, l'analisi della giurisprudenza e le raccomandazioni sulle condanne. Ma con una minore capacità di fare analogie, potrebbe non riuscire a riconoscere come i precedenti legali si applichino a casi leggermente diversi quando si presentano.
Poiché questa mancanza di robustezza potrebbe influire sui risultati nel mondo reale, lo studio ha sottolineato che ciò costituisce la prova che dobbiamo valutare attentamente i sistemi di intelligenza artificiale non solo per quanto riguarda l'accuratezza, ma anche la robustezza delle loro capacità cognitive.
ENGLISH
Study finds that AI fundamentally lacks the human capability to make creative mental connections, raising warning signs for how we deploy AI tools.
We know that artificial intelligence (AI) can't think the same way as a person, but new research has revealed how this difference might affect AI's decision-making, leading to real-world ramifications humans might be unprepared for.
The study, published Feb. 2025 in the journal Transactions on Machine Learning Research, examined how well large language models (LLMs) can form analogies.
They found that in both simple letter-string analogies and digital matrix problems — where the task was to complete a matrix by identifying the missing digit — humans performed well but AI performance declined sharply.
While testing the robustness of humans and AI models on story-based analogy problems, the study found the models were susceptible to answer-order effects — differences in responses due to the order of treatments in an experiment — and may have also been more likely to paraphrase.
Altogether, the study concluded that AI models lack “zero-shot” learning abilities, where a learner observes samples from classes that weren't present during training and makes predictions about the class they belong to according to the question.
Co-author of the study Martha Lewis, assistant professor of neurosymbolic AI at the University of Amsterdam, gave an example of how AI can't perform analogical reasoning as well as humans in letter string problems.
"Letter string analogies have the form of 'if abcd goes to abce, what does ijkl go to?' Most humans will answer 'ijkm', and [AI] tends to give this response too," Lewis told Live Science. "But another problem might be 'if abbcd goes to abcd, what does ijkkl go to? Humans will tend to answer 'ijkl' – the pattern is to remove the repeated element. But GPT-4 tends to get problems [like these] wrong."
Why it matters that AI can't think like humans
Lewis said that while we can abstract from specific patterns to more general rules, LLMs don't have that capability. "They're good at identifying and matching patterns, but not at generalizing from those patterns."
Most AI applications rely to some extent on volume — the more training data is available, the more patterns are identified. But Lewis stressed pattern-matching and abstraction aren't the same thing. "It's less about what's in the data, and more about how data is used," she added.
To give a sense of the implications, AI is increasingly used in the legal sphere for research, case law analysis and sentencing recommendations. But with a lower ability to make analogies, it may fail to recognize how legal precedents apply to slightly different cases when they arise.
Given this lack of robustness might affect real-world outcomes, the study pointed out that this served as evidence that we need to carefully evaluate AI systems not just for accuracy but also for robustness in their cognitive capabilities.
Da:
https://www.livescience.com/technology/artificial-intelligence/scientists-discover-major-differences-in-how-humans-and-ai-think-and-the-implications-could-be-significant?utm_term=0D44E3E5-72C8-4F2E-A2B4-93C82DC78FB4&lrh=e4e2966485d78112a6060535462dd7377ffa0f1e6368288dc8552dcea7aac778&utm_campaign=368B3745-DDE0-4A69-A2E8-62503D85375D&utm_medium=email&utm_content=4845AB48-21CF-4191-8460-A795D483C33A&utm_source=SmartBrief
Commenti
Posta un commento