OpenAI lancia GPT-Rosalind: il nuovo modello per ricerca farmaceutica, genomica e scienze della vita - Comuniclab.it
OpenAI ha presentato GPT-Rosalind, un nuovo modello pensato per la ricerca nelle scienze della vita, con l’obiettivo di aiutare laboratori e aziende a lavorare più rapidamente nelle prime fasi della scoperta di farmaci e dell’analisi biologica.
Il nome richiama Rosalind Franklin, la scienziata il cui lavoro fu determinante per comprendere la struttura del DNA. Ma al di là del riferimento simbolico, qui conta soprattutto la direzione scelta da OpenAI: non un modello generico adattato a un settore, ma una serie di strumenti costruiti per affrontare compiti specifici in biochimica, genomica, ingegneria proteica e flussi di lavoro scientifici complessi.
Secondo quanto comunicato dall’azienda, GPT-Rosalind nasce per supportare attività come la sintesi delle evidenze, la generazione di ipotesi, la pianificazione sperimentale e l’uso coordinato di database, strumenti computazionali e letteratura scientifica. In pratica, prova a inserirsi in quel tratto iniziale della ricerca biomedica in cui i gruppi di lavoro devono orientarsi tra enormi quantità di dati, studi, segnali biologici e possibili strade da testare in laboratorio.
Perché OpenAI punta proprio su questo settore
OpenAI sostiene che negli Stati Uniti il percorso che porta dalla scoperta di un bersaglio terapeutico all’approvazione di un farmaco richieda in media tra 10 e 15 anni. È per questo che l’azienda presenta GPT-Rosalind come uno strumento capace di accorciare almeno una parte del tempo perso nelle fasi preliminari, quelle in cui si valutano ipotesi, si collegano informazioni sparse e si decide quali esperimenti meritano davvero di essere portati avanti.
Il modello, almeno in questa fase, non è pensato per il grande pubblico. L’accesso è limitato a una research preview destinata a clienti enterprise qualificati attraverso un programma di accesso controllato. OpenAI spiega che GPT-Rosalind è disponibile in ChatGPT Enterprise, Codex e API solo per organizzazioni idonee, con casi d’uso legittimi nella ricerca biologica e requisiti stringenti di sicurezza, governance e conformità. Gli utenti individuali, al momento, non sono inclusi.
A chi è destinato e cosa può fare davvero
Il profilo dei destinatari è piuttosto chiaro: bioinformatici, biologi computazionali e ricercatori impegnati nelle prime fasi della scoperta scientifica. OpenAI lo descrive come il suo modello più capace per il lavoro nelle scienze della vita, utile soprattutto per comprendere meccanismi biologici, interpretare dati omici, analizzare sequenze, progettare passaggi successivi e muoversi tra fonti e strumenti diversi senza spezzare continuamente il flusso del lavoro.
Insieme al modello arriva anche un plugin per Codex collegato a oltre 50 strumenti scientifici e fonti di dati. L’idea è rendere più semplice un’attività che oggi spesso richiede continui passaggi tra software, banche dati, pipeline e ambienti separati. OpenAI afferma inoltre di stare già lavorando con partner come Amgen, Moderna, Thermo Fisher Scientific e l’Allen Institute per applicare GPT-Rosalind a flussi di ricerca e scoperta.
Prestazioni, limiti e nodo sicurezza
Sul piano dei test, OpenAI dice che GPT-Rosalind ottiene risultati di vertice su benchmark pubblici come BixBench e supera GPT-5.4 in 6 compiti su 11 in LABBench2, con un vantaggio particolarmente marcato nei compiti di clonazione molecolare. In una valutazione condotta con Dyno Therapeutics, il modello avrebbe inoltre ottenuto risultati superiori al 95° percentile degli esperti umani in un compito di previsione e attorno all’84° percentile in un’attività di generazione di sequenze.
Resta però un punto delicato, che OpenAI affronta in modo esplicito: il rischio di uso improprio di sistemi addestrati su dati biologici sensibili. Proprio per questo l’azienda ha scelto una distribuzione limitata, con accesso affidato a istituzioni ritenute idonee, controlli interni, responsabilità definite e misure di sicurezza rafforzate. È una scelta che racconta bene il peso di questo lancio: non solo un nuovo modello, ma un test concreto su come l’intelligenza artificiale possa entrare in settori ad alta complessità senza abbassare la guardia su affidabilità e governance.
