Annons

Simuleringstrender 2020

Simuleringsprogramvara har tagit klivet upp på huvudarenan de senaste åren och den trenden fortsätter under 2020. Vi kan förvänta oss ett antal stora förändringar som kommer att påverka både programvaror och hela branschen.

AI och maskininlärning
På samma sätt som inom många andra branscher kommer AI och maskininlärning (AI/ML) att spela en viktig roll för programvarubranschen. Inom simuleringsprogramvara kommer AI/ML initialt att användas för att slutföra grundläggande processer och administration för att förenkla och frigöra tid för utvecklare. Ett sådant område är att definiera parametrar. En maskininlärningslösning kan “iaktta” och lära sig av erfarna ingenjörer. Hur använder de simuleringslösningen? Vilka parametrar sätter de? Systemet kan sedan återskapa och använda samma simuleringsflöde och därmed förenkla för mindre erfarna ingenjörer.

För en flygplanstillverkare med hundratals, kanske tusentals, anställda, där bara 5% idag använder simuleringsverktyg, kan AI/ML göra simuleringarna tillgängliga för kanske 15-20% av medarbetarna. Det är en stor förbättring för företagen som då kan lägga mer tid och energi på simulering, utan att behöva rekrytera fler erfarna ingenjörer.

Ett annat område där AI/ML kan underlätta simulering är genom att använda datadrivna eller fysikbaserade neurala nätverk för problemlösning. Då kan hastigheten markant öka i simuleringarna. Istället för att lösa partiella differentialekvationer (PDE) med traditionella numeriska metoder som finita element-, eller volym-metoden, använder dessa nya AI/ML-metoder neurala nätverk för att lösa PDEer. Metoderna har visat sig fungera med enkla geometrier och randvillkor. Vi jobbar nu med att använda dessa nya metoder för att lösa konkreta komplexa problem.

“Multifysisk” simulering
Begreppet “multifysik” går 50 år tillbaka i tiden. Idag handlar multifysik om hur olika fysikbaserade lösningar påverkar varandra. Historiskt måste en ingenjör använda olika lösningar och utföra en rad simuleringar för att hitta design-lösningar för en enda produkt.

Ta ett datorchip till exempel. Utvecklaren genomförde först en simulering av värmen som chipet avger. Sedan analyserades hur värmen från chipet påverkar kretskortet som chipet sitter på. Nästa steg var att hitta en lösning för hur man kunde kyla ner chipet och därefter simulera hur nerkylningen påverkade kretskortet. Avslutningsvis måste man också hitta en lösning så att kretskortet inte påverkades negativt av nerkylningen.

Under många år har stegvis simulering varit enda alternativet och ingenjörer har självklart efterfrågat möjligheten att kunna lösa alla frågor parallellt.

En optimering som omfattar alla discipliner, minskar tiden det tar att analysera, gör det snabbare att hitta lösningar, leder till bättre produkter till lägre kostnad.

ANSYS uppköp av Dynardo, branschledande inom integration av simuleringsprocesser och utvecklingsoptimering tar oss ett steg närmare multifysisk simulering och gör att våra kunder kan hitta optimala produktdesigner snabbare och mer ekonomiskt. Under det kommande året kan vi förvänta oss ytterligare teknologiska förbättringar inom området.

Mikrotjänster för simulering
Ett annat område där vi kan förvänta oss stora förändringar är mikrotjänster för simulering. Huvuddelarna inom simulering som till exempel geometri, meshing, solver och post-processing, som idag utgör en sammanhängande process kommer att delas upp i separata fristående delar.

Individuella tjänster kan därmed användas för olika produkter och integreras via APIer och drivas skalbart i molnet med hjälp av till exempel Microsoft Azure eller AWS. Resultatet blir bättre tillgänglighet, högre flexibilitet och simuleringarna kan återanvändas för många olika uppgifter. APIerna gör också att användare kan koppla samman ANSYS-verktygen med många andra företags system och därmed skapa en öppen plattform.

Hyperskalig simulering
En av de största utmaningarna för många programvaror är körtid och simulering. Ett sätt att öka hastigheten av simuleringar är genom parallell databehandling. Vi har sett många försök till parallell databehandling genom åren, från Shared Memory Processing (SMP) och Message Passing Interface (MPI) till granulär GPU-baserad och Task based parallelism.

För att få hyperskaliga datorer, är tanken att vi använder alla slags algoritmer, GPU, SMP, MPI och Task based, på datorer i exa-skala. Det gör att kunder kommer att kunna köra hyperskaliga simuleringar som tidigare kunde ta 10 000 timmar, och eftersom simuleringarna körs på flera datorkärnor, kan tiden kapas avsevärt, potentiellt ned till bara några minuter eller ett par timmar.

Det finns mycket att göra inom området. Vi kommer inte att se hyperskala på den här nivån under 2020, men vi kommer att se en början.

Prediktiv och robust design
Många tillverkare satsar på att vara mer minimalistiska i sin design för bättre effektivitet och kostnadsbesparingar. Det gäller både fysiska produkter och tjänster. Där det krävs 15 cm asfalt för en vägyta, används exakt 15 cm och inte 30 cm för att vara på säkra sidan, som kan ha varit fallet tidigare. Problemet är att alla material har variationer vilket innebär att beräkningarna för volym av asfalt kan variera från fall till fall. 15 cm kan vara rätt i ett fall, men inte nödvändigtvis i ett annat.

En robust design utvecklad med hjälp av simulering hanterar sådana osäkerheter och vi kommer att se mer av det under det kommande året. Genom att använda simulering för beräkning av material med osäkerhetsfaktorer går det att undvika både över- och underdimensionering; Istället för en säkerhetsmarginal med en faktor 6 vilket är för mycket och därmed ineffektivt, eller en faktor på 2 vilket inte ger någon marginal för materialvariationer alls, kan robust design hamna på en faktor 2,1, dvs en marginal som är baserad på verklig insikt.

Det viktiga när det gäller att förstå material och beräkna den ideala säkerhetsmarginalen är materialets egenskaper. Det var bland annat detta som låg till grund för ANSYS beslut att förvärva Granta Design, som ger ANSYS ökade möjligheter att beräkna, validera och verifiera produkter och tjänster med osäkerhetsfaktorer med optimal säkerhet.

Digitaliseringen fortsätter
Simulering är redan idag digital, men digitaliseringen fortsätter nu in i den fysiska miljön. Tack vare Internet of Things (IOT), har användningen av digitala tvillingar exploderat och kommer att fortsätta öka snabbt. Ingenjörer skapar en tvilling med data från en fysisk produkt eller komponent. Med den digitala tvillingen kan driften analyseras, och i förväg kan problem som uppstår i den fysiska maskinen identifieras och förhindras, därmed minskar kostnaderna. Teknologin är nu etablerad och beprövad och vi kan förvänta oss att fler kommer att implementera digitala tvillingar under 2020.

Sedan har vi augmented (AR) och virtual reality (VR). Ingenjörer visualiserar idag sina simulerade lösningar på 2D-skärmar, men i och med att AR och VR blir mer tillgängligt står det inte på förrän vi får se design i 3D-miljö via AR/VR-headsets som exempelvis Oculus. Med AR/VR blir det enklare att utvärdera data och design blir enklare att förstå, testa och ändra vilket leder till resurssnålare och mer effektiva processer.

Digital transformation
Oavsett om det handlar om design, test, drift eller underhåll – så spelar simulering en avgörande roll. Men hur kan simulering hjälpa när en produkt eller komponent går sönder? Eftersom tillverkare digitaliserar hela sin verksamhet kan de länka samman alla sina aktiviteter, från initial design, genom tillverkning, försäljning och därmed spåra enskilda komponenter genom hela kedjan.

Om det till exempel uppstår problem med bromsarna på en viss bilmodell, kan felet spåras tillbaka till den ursprungliga simulerade komponenten, som snabbt kan analyseras och korrigeras. Om modellen återkallas, kan problemet åtgärdas snabbare och mer kostnadseffektivt än genom manuell testning.

Den digitala transformationen är en stor omställning, men många företag har redan börjat. Jag förväntar mig att omställningen kommer att ta ordentlig fart under 2020 och många stora tillverkare kommer att vara i mål innan årets slut.

Simulering inom nya områden
Simulering är väl etablerat inom en rad områden där det krävs multifysiska lösningar. Under 2020 kommer vi att se simulering också inom andra fysikberoende områden. Kemi inom hälso- och sjukvårdsområdet är ett sådan exempel. Där är multifysisk simulering inte så vanligt, men behovet är stort.

I praktiken skulle det kunna se ut så här: För att nya mediciner ska godkännas krävs kliniska tester på människor, men en dag kommer vi att kunna ta fram mediciner enbart med hjälp av simulering. Tester på tusentals försökspersoner är oerhört kostsamt – och i vissa fall går det inte att testa på människor, som när det gäller medicin till barn. Här finns alltså en enorm potential.

Innovation, innovation, innovation
Idag kan vem som helst på mycket kort tid, utveckla nya tjänster och produkter som snabbt kan slå ut de etablerade. En startup i Silicon Valley kan utveckla ett helt nytt sätt att genomföra en aktivitet eller lösa ett problem och ställa en hel bransch på ända.

Det finns många exempel på företag genom historien som struntat i teknologiförändringar och försvunnit från marknaden. Istället för att chansa på att förändringarna inte når oss, gäller det för dagens företag att våga se riskerna i vitögat och satsa helhjärtat på innovation.

Vänta inte på att bli utsatt för förändring – var istället den som driver förändringen i din bransch! iPhone är ett utmärkt exempel. Apple vände upp och ner på sin egen bransch och till och med sina egna existerande produkter, genom att lansera mer avancerade modeller. Samma förändring sveper genom simuleringsbranschen. Vi siktar på att vända upp och ner på våra egna simuleringslösningar med ny teknologi och därmed säkra att ingen kommer ifatt oss.


Prith Banerjee, Chief Technology Officer, ANSYS

One Response to “Simuleringstrender 2020”

  1. Då kanske Doug Adams ”Deep Thought” snart blir verklighet?

    En tidig modell av dynamiska skeenden utarbetades av Jean-Baptiste Joseph Fourier och publicerades i hans ’Mèmoire sur Les températures du globe terrestre et des espaces planétaires’ från 1823.

    Syftet var att studera (energi-)flödet från solen och universum i stort in till Jorden samtidigt som han höll koll på värmeflödet från kärnan ut till ytan och också hur det förhöll sig med strålningen ut från jordytan tillbaka till världsrymden. Han hade inte hela begreppsapparaten klar för sig och använde ord som ’mörk värme’ för IR-strålning och ’ljus värme’ för övrig strålning – som han för övrigt verkar anse bestå av synlig strålning.

    Han behövde en metod att studera hur de olika strålningsflödena med olika frekvenser från ’likström’ (flöde från jordens kärna) via årscykler, månadsvariationer och dygnsvariationer samverkade och utvecklade den metod som alla numera känner som fourieranalys och som blivit ett allmänt accepterat verktyg för snart sagt varje fysikaliskt förlopp – det må gälla teletransmission, seismiska undersökningar, vibrationer i valsverk och broar/byggnader.

    Okritisk användning av Fouriers metoder och med tveksamma indata har idag gett oss ett oändligt käbblande om vad som ”måste göras” för att Jorden ska vara fortsatt beboelig.

    Jag ser nu fram mot en ny ’Deep Thought’ som, i stället för politiskt färgade data observerar verkligheten (observatörer finns sedan länge – det är här ML kommer in), och ser in i den nära framtiden med hjälp av AI och alltmera verklighetsanpassade modeller.

    Först då kan vi få svaret på frågan om ’Livet, Universum och Allting’ – Den fråga som Doug ställde redan 1978. Att han visste var han hade sin handduk har bekräftats i dessa yttersta tider – han kunde till och med förutsäga Zaphod Beeblebrox och Donald Trump, som är en både exteriört och interiört slående lik inkarnation av Zaphod.

    AI och ML kan verka främmande och skrämmande. Men lika skrämmande som NI (Non-Intelligence) och NL (Non-Learning) är den inte.

Leave a Reply