search feed
Banner Pubblicitario Animato

OpenAI ha preso una posizione ferma nei confronti degli utenti che tentano di esplorare il funzionamento interno della sua nuova famiglia di modelli di intelligenza artificiale, Strawberry.

I modelli o1-preview e o1-mini, che si dice possiedano capacità di ragionamento avanzate, hanno suscitato un intenso interesse nella comunità AI. Tuttavia, i tentativi di scoprire la catena di pensiero collegata ad un codice sorgente che guida questi modelli sono stati presi in considerazione con importabti avvertimenti da parte di OpenAI.

L’approccio segreto di OpenAI al ragionamento dell’intelligenza artificiale 

A differenza dei suoi predecessori, come GPT-4o, il modello o1 impiega un processo di risoluzione dei problemi passo dopo passo che è parzialmente visibile agli utenti. La piattaforma consente agli utenti di vedere una versione semplificata di questo processo, ma mantiene nascosta la catena di pensiero grezza.

OpenAI sostiene che queste catene di ragionamento nascoste sono essenziali per il monitoraggio interno e il mantenimento di un vantaggio competitivo.

Questa segretezza ha dato origine a un’ondata di tentativi di jailbreak, con gli appassionati di intelligenza artificiale e i ricercatori del red team che hanno cercato di svelare la logica sottostante.

Sebbene i primi report suggeriscano piccole innovazioni, OpenAI rimane vigile sulle analisi. Gli utenti che tentano di interrogare il ragionamento del modello riceverebbero e-mail di avviso, anche dai team di sicurezza interni di OpenAI.

Banner Pubblicitario

Diversi utenti, tra cui importanti ingegneri specializzati in intelligenza artificiale come Riley Goodside, hanno segnalato di aver ricevuto avvisi per l’utilizzo di termini come “traccia di ragionamento” durante le interazioni con il modello.

Gli avvertimenti di OpenAI sottolineano che tali tentativi violano i Termini di utilizzo dell’azienda e potrebbero comportare un ban. L’azienda consiglia agli utenti di smettere di impegnarsi in attività progettate per aggirare le sue misure di sicurezza.

Marco Figueroa, responsabile del programma GenAI bug bounty di Mozilla, ha condiviso la sua frustrazione su X, rivelando di essere stato avvisato dopo i suoi tentativi di red-team del modello. Figueroa ha espresso preoccupazioni sul fatto che queste restrizioni ostacolino la sua capacità di condurre ricerche sulla sicurezza.

Il Business dietro il ragionamento nascosto dell’intlligenza artificiale.

La decisione di OpenAI di tenere nascosta la struttura learning è vista da molti come una mossa strategica.

L’azienda riconosce i potenziali svantaggi, ma sostiene che esporre la catena di pensiero potrebbe consentire ai concorrenti di addestrare modelli simili utilizzando i dati di ragionamento proprietari di OpenAI.

Anche il ricercatore indipendente Simon Willison  ha ribadito questo sentimento , evidenziando i potenziali rischi competitivi per OpenAI.

Mentre OpenAI affronta crescenti pressioni commerciali e preoccupazioni in materia di sicurezza, l’azienda rimane impegnata a controllare il modo in cui vengono analizzati i suoi modelli di intelligenza artificiale, assicurando che le sue innovazioni rimangano protette dalla concorrenza.

Banner Pubblicitario Animato

Di HPadmin