[ad_1]
Siamo orgogliosi di condividere le nostre innovazioni in ACM SIGGRAFO 2023, la principale conferenza sulla computer grafica e le tecniche interattive, che si terrà dal 6 al 10 agosto a Los Angeles. Durante l’evento, i nostri ricercatori presenteranno sei sessioni di documenti tecnici, due workshop Frontiers, due eventi Real-Time Live e una sessione poster. Il nostro team sarà disponibile durante tutta la conferenza per discutere di Roblox e della nostra ricerca presso il nostro stand. Siamo anche grati al comitato per aver presentato il nostro lavoro nel trailer altamente selettivo dei documenti tecnici.
Roblox Research persegue la scienza fondamentale della tecnologia per la nostra piattaforma social 3D, con l’obiettivo di connettere un miliardo di persone con ottimismo e civiltà. Promuoviamo la creazione di contenuti 3D, la simulazione fisica e la moderazione in tempo reale utilizzando una combinazione di principi primi e tecniche di intelligenza artificiale (AI). Il nostro lavoro più recente consente a capelli, tessuti, oggetti e paesaggi di reagire al movimento, alle collisioni e al vento proprio come farebbero nel mondo reale. Poiché supportiamo una piattaforma globale con centinaia di milioni di utenti, ogni aspetto deve scalare sia sul lato client che sul lato server e supportare qualsiasi dispositivo, dai telefoni più vecchi ai più recenti visori AR/VR. Leggi di più sul lavoro che presenteremo di seguito e consulta il programma su dove trovarci a SIGGRAPH.
Rendering ottimizzato
Man mano che i mondi 3D diventano più realistici, le strutture e i terreni diventano sempre più complessi. Il rendering di questi ambienti complessi richiede soluzioni per effetti del mondo reale come tessuti increspati o contorti, terreno irregolare, ecc. Nella loro presentazione, Semplificazione della superficie utilizzando la metrica dell’errore intrinseco, il ricercatore Roblox Hsueh-Ti Derek Liu e colleghi della Carnegie Mellon University e dell’Università di Toronto, propongono un metodo per semplificare le triangolazioni intrinseche. La classica semplificazione della mesh preserva l’aspetto di un oggetto ai fini del rendering, ma cosa succede se l’obiettivo è la simulazione, in cui gli oggetti possono essere ruotati, piegati o piegati? Questo metodo semplifica la mesh per la simulazione esplorando lo spazio molto più ampio delle triangolazioni intrinseche, portando a risultati oltre 1.000 volte più rapidi su attività comuni come il calcolo delle distanze geodetiche. Questo nuovo metodo potrebbe contribuire a maggiori livelli di dettaglio per la simulazione.
Liu presenterà anche dei lavori Tracciamento del percorso dell’altezza differenziabile in collaborazione con colleghi della George Mason University, dell’Università di Toronto e dell’Università di Waterloo. Ciò consente un rendering rapido e realistico di terreno, ombre e oggetti 3D per applicazioni di formazione AI. Questo approccio consente di ottenere frame rate in tempo reale, ordini di grandezza più rapidi rispetto alla maggior parte dei renderer differenziali mesh 3D esistenti. Sblocca la possibilità di applicazioni interattive di rendering inverso, comprese le versioni future dei nostri strumenti di intelligenza artificiale generativa e di moderazione. I ricercatori dimostrano questo metodo con molte attività interattive, come l’ottimizzazione del terreno e la generazione di forme basate su testo.
Movimento realistico per avatar e oltre
Il movimento umano è complesso e molto vario. Il nostro obiettivo è riprodurlo accuratamente in tutta la sua fedeltà di realismo ed espressione in ambienti virtuali, il che è una grande sfida. Il multitasking, o la combinazione di comportamenti diversi senza soluzione di continuità, ad esempio, è qualcosa in cui gli esseri umani sono molto abili. La grafica computerizzata tradizionale si concentra su singoli comportamenti come camminare o lanciare e richiede comportamenti combinati creati esplicitamente.
Nel loro documento, Apprendimento del movimento composito con controllo delle attività, I ricercatori Roblox Victor Zordan e Pei Xu, insieme ai colleghi della Clemson University e dell’Università della California, Merced, delineano un nuovo approccio di apprendimento per rinforzo per il controllo del movimento multitasking. Questa ricerca propone un approccio di apprendimento per rinforzo per il controllo del movimento basato su compiti complessi per personaggi simulati fisicamente. Con questo approccio di controllo multiobiettivo, i personaggi possono eseguire movimenti multitasking compositi, come fare il giocoliere mentre camminano. Possono anche combinare una vasta gamma di altre attività senza riferimenti espliciti agli esempi di movimento del comportamento combinato. Questo approccio supporta anche la formazione efficiente in termini di campioni riutilizzando i controller esistenti.
Le acconciature simulate rappresentano un’altra sfida di movimento in ambienti 3D coinvolgenti. Lì, modelli di capelli accuratamente progettati e acconciati possono crollare immediatamente sotto il loro stesso peso, incapaci di mantenere la forma prevista contro la forza di gravità. Inizializzazione senza cedimenti per la simulazione di capelli ibridi basati su ciocche, presentato dal ricercatore Roblox Cem Yuksel e dai colleghi di LightSpeed Studios, propone un nuovo framework di inizializzazione per sistemi di capelli basati su ciocche. Questo lavoro elimina il rilassamento risolvendo le forze interne che i capelli devono esibire per preservare la loro forma con la gravità e altre forze esterne. Ciò si ottiene senza irrigidire inutilmente la dinamica dei capelli e considerando le collisioni a livello di ciocca. Anche a questo documento è stato assegnato un Menzione d’onore per i migliori articoli.
Roblox è una piattaforma 3D basata sulla simulazione, in cui le interazioni primarie tra oggetti e con gli avatar sono mediate dai principi primi della fisica invece che da un codice esplicito. Quest’anno condividiamo due nuovi risultati su diversi progressi nella simulazione degli oggetti.
Insieme ai colleghi dell’UCLA, dell’Università dello Utah e di Adobe Research, Yuksel presenterà Gusci spessi multistrato, che propone un nuovo approccio per consentire simulazioni sensibili allo spessore per materiali come indumenti in pelle, cuscini, tappetini e pannelli metallici. Questo approccio evita il bloccaggio a taglio e cattura in modo efficiente i dettagli sottili delle rughe e apre le porte a simulazioni veloci, di alta qualità e sensibili allo spessore di una varietà di strutture.
Un’altra sfida di movimento nelle simulazioni arriva quando gli oggetti si scontrano e si separano. Nel mondo reale, gli oggetti sono generalmente in grado di scontrarsi e separarsi di nuovo, sempre come due forme distinte. Yuksel, con i colleghi dell’Università dello Utah, presenterà un metodo per calcolare in modo efficiente il Percorso più breve al confine per le mesh intersecanti da un dato punto interno. Offre una soluzione rapida e robusta per la gestione delle collisioni e delle autocollisioni simulando oggetti volumetrici deformabili. Ciò consente di simulare scenari di autocollisione estremamente impegnativi utilizzando tecniche efficienti. Un esempio è XPBD, che non fornisce garanzie sulla risoluzione delle collisioni, a differenza dei metodi di simulazione computazionalmente costosi che devono quasi mantenere uno stato privo di collisioni.
Eventi interattivi
Tutto sulla piattaforma Roblox è interattivo e in tempo reale. Il modo migliore per sperimentare i nostri nuovi progressi è vederli in azione attraverso demo dal vivo e le nostre sessioni dal vivo in tempo reale. A Roblox IA generativa in azione, i ricercatori Brent Vincent e Kartik Ayyar dimostreranno come i creatori possono sfruttare il linguaggio naturale e altre espressioni di intenti per creare oggetti e scene interattive senza modellazione o codifica complesse. A Realtà intermediata con un personaggio stampato in 3D con intelligenza artificialeKenny Mitchell di Roblox e Llogari Casas Cambra di 3Finery Ltd presenteranno un modello di intelligenza artificiale che elabora il riconoscimento vocale dal vivo e genera risposte come un personaggio stampato in 3D, animando le caratteristiche del personaggio in sincronia con l’audio.
Gli scienziati Roblox interverranno anche in panel ai Frontier Workshops. A Oltre la vita reale, come i social media interattivi 3D stanno cambiando il modo in cui interagiamo, esprimiamo e pensiamo, Le scienziate Roblox Lauren Cheatham e Carissa Kang si uniranno a esperti del settore, scienziati sociali e ricercatori comportamentali per discutere di come gli ambienti virtuali immersivi possano aiutare a modellare atteggiamenti e comportamenti, supportare l’esplorazione dell’identità e aiutare le generazioni più giovani a stabilire confini sani che possono estendersi al loro mondo reale . A Interazioni avatar espressive per co-esperienze onlinegli scienziati Roblox Ian Sachs, Vivek Virma, Sean Palmer, Tom Sanocki e Kenny Mitchell, insieme ad altri esperti, discuteranno delle sfide e delle lezioni apprese dall’implementazione di esperienze per l’interattività remota e la comunicazione espressiva in una grande comunità globale.
Adrian Xuan Wei Lim ospiterà una sessione poster per presentare Proiezione inversa: mappatura delle texture dello spazio locale in tempo reale, una nuova tecnica proiettiva progettata per l’uso nei giochi che dipinge una decalcomania direttamente sulla trama di un oggetto 3D in tempo reale. Utilizzando tecniche di proiezione calcolate nelle trame dello spazio locale e guardando verso l’esterno, i creatori che utilizzano qualsiasi cosa, dai dispositivi Android di fascia bassa ai desktop di gioco di fascia alta, possono godere della personalizzazione delle proprie risorse. Questa pipeline proposta potrebbe essere un passo avanti verso il miglioramento della velocità e della versatilità della pittura dei modelli.
Guarda tutti i documenti che il team di ricerca Roblox presenterà al SIGGRAPH 2023 qui. Visita il nostro stand e le nostre sessioni, elencate di seguito. Non vediamo l’ora di incontrarvi di persona!
Domenica 6 agosto
Lunedì 7 agosto
Martedì 8 agosto
Mercoledì 9 agosto
Giovedì 10 agosto
[ad_2]
Source link