Dilazione debiti

Saldo e stralcio

 

Come procede la continua spinta all’innovazione dell’AI open source?


Facciamo il punto sull’AI open source presentando il punto di vista di Red Hat, di Chris Wright, CTO, Red Hat

Richiedi prestito online

Procedura celere

 

Oltre trenta anni fa, Red Hat ha compreso come l’open source avrebbero potuto favorire lo sviluppo di un software che avrebbe guidato l’innovazione informatica. Trenta milioni di linee di codice dopo, Linux si è trasformato nel software di maggior successo della storia. L’impegno nei confronti dei principi dell’open source continua ancora oggi, non solo nel modello di business, ma anche nella cultura aziendale. Riteniamo che, se portati avanti nel modo giusto, questi concetti possano impattare positivamente anche sull’intelligenza artificiale (AI).

L’AI, e in particolare i modelli linguistici di grandi dimensioni (LLM) che alimentano l’AI generativa (gen AI), non può essere considerata allo stesso modo del software open. Infatti, i modelli di AI sono costituiti principalmente da pesi (model weights), parametri numerici che ne determinano l’elaborazione degli input e le connessioni tra i vari punti di dati. I pesi di un modello addestrato sono il risultato di un ampio processo di istruzione che coinvolge grandi quantità di dati, accuratamente preparati, mescolati ed elaborati.

Sebbene i pesi del modello non siano tecnicamente un software, sotto molti aspetti svolgono una funzione simile a quella del codice. È facile fare un paragone tra i dati e il codice sorgente del modello. Nell’open, il codice sorgente è comunemente definito come la “forma preferita” per apportare modifiche al software. I dati di addestramento da soli non sono adatti a questo ruolo per via delle dimensioni tipicamente estese e il complicato processo di pre-addestramento che determina una connessione tenue e indiretta di ogni singolo dato con i pesi addestrati e il comportamento risultante del modello.

La maggior parte dei miglioramenti apportati ai modelli di intelligenza artificiale non comporta accesso o manipolazione dei dati di addestramento originali. Piuttosto, sono il risultato di modifiche ai pesi del modello o di un processo di messa a punto che può anche servire a regolarne le prestazioni. La libertà di apportare questi miglioramenti richiede che i pesi siano rilasciati con tutte le autorizzazioni previste dalle licenze open.

 

Finanziamo agevolati

Contributi per le imprese

 

Per Red Hat la soglia minima per l’AI open è rappresentata da pesi del modello con licenza open source combinati a componenti software open. Ma questo è il punto di partenza, non certo la destinazione finale: incoraggiamo la community, le autorità di regolamentazione e tutto il mercato a continuare a impegnarsi per una maggiore trasparenza e allineamento con i principi di sviluppo open source durante la formazione e la messa a punto dei modelli di AI.

Non si tratta di un tentativo di definizione formale, come quello intrapreso dall’Open Source Initiative (OSI) con la sua Open AI Definition (OSAID), ma semplicemente della nostra opinione su ciò che rende l’AI open source realizzabile e accessibile al più ampio insieme di comunità, organizzazioni e vendor.

Abbiamo cercato di tradurre in pratica questo punto di vista attraverso il nostro lavoro nelle comunità open source, evidenziato dal progetto InstructLab guidato da Red Hat e dal nostro lavoro sulla famiglia Granite di modelli con licenza open source con IBM Research. InstructLab limita significativamente la barriera dei contributi ai modelli di intelligenza artificiale da parte di chi non è un esperto di dati. Esperti di dominio di tutti i settori possono aggiungere le loro competenze e conoscenze a InstructLab, sia per uso interno che per contribuire alla creazione di un modello di AI open source condiviso e ampiamente accessibile per le comunità a monte.

La famiglia di modelli Granite 3.0 affronta un’ampia gamma di casi d’uso dell’AI, dalla generazione di codice all’elaborazione del linguaggio naturale, fino all’estrazione di informazioni da vasti insiemi di dati, il tutto con licenza open source. Abbiamo aiutato IBM Research a portare una famiglia di modelli di codice Granite nel mondo open source e continuiamo a supportarla, sia dal punto di vista open source che come parte della nostra offerta Red Hat AI.

Le ripercussioni causate dai recenti annunci di DeepSeek dimostrano come l’innovazione open source possa avere un forte impatto sull’AI, non solamente a livello di modello. L’approccio di DeepSeek suscita ovviamente delle perplessità, in particolare il fatto che la licenza del modello non chiarisca come sia stato prodotto, rafforzando ulteriormente la necessità di trasparenza. D’altra parte, il picco di interesse generato conferma la nostra visione del futuro dell’AI: aperto, incentrato su modelli più piccoli, ottimizzati e aperti che possono essere personalizzati per specifici casi d’uso sui dati aziendali, ovunque e nel cloud ibrido.

 

Estendere l’AI open source oltre i modelli

La tecnologia e i principi di sviluppo open source sono al centro delle nostre offerte AI, proprio come accade per il portfolio Red Hat AI. Red Hat OpenShift AI si basa su Kubernetes, KubeFlow e container conformi alla Open Container Initiative (OCI) oltre che su una serie di altre tecnologie cloud-native open source. Red Hat Enterprise Linux AI (RHEL AI) incorpora la famiglia Granite LLM di IBM con licenza open source e il progetto open source InstructLab.

Ma l’opera di Red Hat in ambito AI open source si espande ben oltre; siamo attivi in un numero sempre crescente di progetti e comunità upstream e ne abbiamo avviati molti altri per conto nostro, tra cui:

Dilazioni debiti fiscali

Assistenza fiscale

 

  • RamaLama, un progetto che mira a rendere la gestione locale e l’erogazione dei modelli di AI molto meno complessi e difficoltosi;
  • TrustyAI, un toolkit open per la creazione di flussi di lavoro AI più responsabili;
  • Climatik, un progetto che mira a rendere l’AI più sostenibile in termini di consumo energetico;
  • Podman AI Lab, un toolkit per sviluppatori che facilita la sperimentazione di LLM open;

rsz_red_hat_chris_wrightIl recente annuncio relativo a Neural Magic amplia ulteriormente la nostra visione, consentendo alle aziende di allineare modelli di AI più piccoli e ottimizzati, compresi quelli con licenza open source, ai loro dati, ovunque essi si trovino nel cloud ibrido. Le organizzazioni IT possono quindi utilizzare server di inferenza vLLM per alimentare le decisioni e l’output di questi modelli, contribuendo a costruire uno stack AI basato su tecnologie trasparenti e supportate.

Per Red Hat, l’AI open vive e respira nel cloud ibrido, che offre la flessibilità necessaria per scegliere l’ambiente migliore per ogni carico di lavoro, ottimizzando prestazioni, costi, scalabilità e requisiti di sicurezza. Le nostre piattaforme, i nostri obiettivi e la nostra organizzazione supportano questo sforzo, che la collaborazione con i partner del settore, i nostri clienti e la più ampia comunità open source renderà ancor più efficace nella sua continua spinta all’innovazione dell’AI open source.

di Chris Wright, CTO, Red Hat



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Finanziamo agevolati

Contributi per le imprese

 

Source link

Dilazione debiti

Saldo e stralcio