Open AI – Wikipedia
Open AI | |
Bildad | 11 december, 2015 |
---|---|
Grundare | Elon Musk, Sam Altman m.fl. |
Typ | Ideell organisation |
Syfte/fokus | Artificiell intelligens |
Plats | San Francisco, Kalifornien, USA |
Budget | 1 miljard USD (2015) |
Webbplats | www |
Open AI (av företaget skrivet OpenAI) är ett amerikanskt företag som grundades med målet att främja och utveckla artificiell intelligens (AI) på ett sätt som gynnar mänskligheten. Företaget arbetar med forskning och utveckling inom områden som maskininlärning, neuronnät och AI-etik för att möjliggöra innovativ och ansvarsfull användning av AI-teknik.[1] Open AI har skapat chatboten Chat GPT som bygger på GPT-3, vilket är en språkmodell som används för att generera texter med naturligt språk.
Sam Altman var ordförande i Open AI mellan åren 2015–2023. Ilya Sutskever, tidigare forskare vid Google, är forskningschef.[2] Greg Brockman, Tidigare CTO för Stripe, är CTO.[3] Företaget stöds av 1 miljard amerikanska dollar, bland annat genom Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys och YC Research.
Den 17 november 2023 avsattes Sam Altman som vd av Open AI:s styrelse då den saknade förtroende för honom. Kort därefter valde Greg Brockman att sluta. Som tillfällig vd installerades Mira Murati som tidigare arbetade som CTO. Den 22 november 2023 återvände Altman till posten som företagets vd.
Produkter och applikationer
[redigera | redigera wikitext]Open AI:s forskning fokuserar på förstärkningsinlärning. Open AI ses som en konkurrent till Deepmind.[4]
Chat GPT
[redigera | redigera wikitext]Chat GPT är en avancerad AI-språkmodell som bygger på GPT-3 och har förmågan att generera naturlig och sammanhängande text baserat på inmatad text. Användare kan ställa en fråga och få svar inom några sekunder. Chat GPT lanserades i november 2022 och hade 1 miljon användare efter fem dagar.
Modellen är tränad genom övervakad inlärning (supervised learning) med stora mängder data från internet. Detta ger Chat GPT en bred kunskapsbas och förmåga att förstå och svara på olika frågor, ge förslag och utföra olika språkbaserade uppgifter. Chat GPT har användningar inom bland annat kundsupport, programmering och undervisning.
Gym
[redigera | redigera wikitext]Gym syftar till att tillhandahålla benchmarks för artificiell generell intelligens (AGI) som är lätta att installera i en mängd olika miljöer – något liknande men bredare än ImageNet, som används i forskning inom övervakad inlärning. Tanken är att kunna standardisera hur miljöer definieras i AI-forskningspublikationer, så att publicerad forskning blir enklare att reproducera.[5][6] Projektet gör anspråk på att ge användaren ett enkelt gränssnitt. Från och med juni 2017 kan Gym endast användas med Python.[7] Från och med september 2017 uppdateras inte dokumentationssidan för Gym, utan aktuell information finns istället på deras Github-sida.[8]
Robosumo
[redigera | redigera wikitext]Robosumo är en virtuell värld där agenter i form av virtuella humanoida robotar (agenter) initialt saknar kunskap om hur man ens går, men agenterna får sen målet att lära sig att röra på sig och knuffa ut en motståndagent ur ringen, som i sumobrottning. Genom denna "fientliga" inlärningsprocess lär sig agenterna hur man anpassar sig till förändrade förhållanden; när en agent sedan avlägsnas från denna virtuella miljö och placeras i en ny virtuell miljö med t.ex. kraftiga vindar, ställer sig agenten upp för att förbli upprätt, vilket tyder på att den hade lärt sig att balansera på ett generaliserat sätt.[9][10] Open AI:s Igor Mordatch hävdar att konkurrens mellan agenter kan skapa en intelligens "kapprustning" som kan öka en agents förmåga att fungera, även utanför tävlingens sammanhang.
Debattspel
[redigera | redigera wikitext]2018 lanserade Open AI Debate Game, som lär maskiner att diskutera låtsasproblem inför en mänsklig domare. Syftet är att undersöka om ett sådant tillvägagångssätt kan hjälpa vid granskning av AI-beslut och att utveckla förklarlig AI.[11][12]
Dactyl
[redigera | redigera wikitext]Dactyl använder maskininlärning för att träna en robothand, Shadow Hand, från grunden, med samma kod för förstärkningsinlärning som Open AI Five använder. Robothanden tränas helt i fysiskt inexakt simulering.[13][14]
2019 visade Open AI att Dactyl kunde lösa Rubiks kub 60% av gångerna den försökte.[15]
Generativa modeller
[redigera | redigera wikitext]GPT
[redigera | redigera wikitext]Den ursprungliga artikeln om generativ förträning (GPT) av en språkmodell skrevs av Alec Radford och kollegor och publicerades i preprint på Open AI:s webbplats den 11 juni 2018.[16] Den visade hur en generativ språkmodell kan förvärva världskunskap och bearbeta långväga beroenden genom förträning på en mångsidig korpus med stora mängder av lång sammanhängande text.
GPT-2
[redigera | redigera wikitext]Generative Pre-trained Transformer 2, allmänt känd genom sin förkortade form GPT-2, är en oövervakad transformatorspråkmodell och efterföljaren till GPT. GPT-2 tillkännagavs först i februari 2019, med endast begränsade demonstrationsversioner som initialt släpptes för allmänheten. Den fullständiga versionen av GPT-2 släpptes inte omedelbart på grund av oro för potentiellt missbruk, t.ex. att den skulle tillämpas för att skriva falska nyheter.[17] Vissa experter uttryckte skepsis mot att GPT-2 utgjorde ett betydande hot. Allen Institute for Artificial Intelligence gjorde motdraget att bygga ett verktyg som kan användas för att upptäcka "neurala falska nyheter".[18] Andra forskare, som Jeremy Howard, varnade för "tekniken för att helt och hållet fylla Twitter, e-post och webben med rimligt klingande, kontextanpassad prosa, som skulle dränka allt annat tal och vara omöjligt att filtrera".[19] I november 2019 släppte OpenAI den fullständiga versionen av språkmodellen GPT-2.[20] Flera webbplatser är värdar för interaktiva demonstrationer av olika instanser av GPT-2 och andra transformatormodeller.[21][22][23]
Radfort et al.[24] hävdar att oövervakade språkmodeller är "general-purpose learners", vilket illustreras av att GPT-2 uppnår hög precision och perplexitet på 7 av 8 zero-shot uppgifter (d.v.s. modellen tränades inte vidare på någon uppgiftsspecifik in-utdata). Korpusen den utbildades på, kallad Webtext, innehåller drygt 8 miljoner dokument för totalt 40 GB text från webbadresser som delas i Reddit-trådar med minst 3 gillamarkeringar. Det gör att man undviker problem med att koda vokabulär med ordtokens genom att använda byteparkodning. Detta gör det möjligt att representera vilken sträng av tecken som helst, genom att koda både individuella tecken och tokens med flera tecken.
GPT-3
[redigera | redigera wikitext]Generative Pre-trained Transformer 3, allmänt känd genom sin förkortade form GPT-3, är en oövervakad Transformer-språkmodell och efterföljaren till GPT-2. Den omtalades första gången i maj 2020.[25][26] Open AI uppgav att den fullständiga versionen av GPT-3 innehåller 175 miljarder parametrar, två storleksordningar större än de 1,5 miljarder parametrar[16] i den fullständiga versionen av GPT-2 (även om GPT-3-modeller med så få som 125 miljoner parametrar tränades också).
Open AI uppgav att GPT-3 lyckats med vissa "meta-lärande"-uppgifter. Det kan generalisera syftet med ett enda in-out-par. Brown et al. ger ett exempel på översättning och tvärspråklig överföring av lärande mellan engelska och svenska, och mellan engelska och tyska.[27].[28]
GPT-3 förbättrade avsevärt benchmarkresultat jämfört med GPT-2. Open AI varnade för att en sådan uppskalning av språkmodeller kan närma sig eller stöta på de grundläggande kapacitetsbegränsningarna hos prediktiva språkmodeller. Förträning av GPT-3 krävde flera tusen petaflop/s-dagar beräkning, jämfört med tiotals petaflop/s-dagar för hela GPT-2-modellen. Liksom sin föregångare släpptes GPT-3:s fullt utbildade modell inte omedelbart till allmänheten på grund av eventuellt missbruk, även om Open AI planerade att tillåta åtkomst via ett betald moln-API efter en två månader lång gratis privat beta som började i juni 2020.[29][30]
Den 23 september 2020 licensierades GPT-3 exklusivt till Microsoft.[31][32]
Musik
[redigera | redigera wikitext]Open AI:s Musenet (2019) är ett djupt neuralt nät som tränats för att förutsäga efterföljande musikaliska toner i MIDI-musikfiler. Den kan generera låtar med tio olika instrument i femton olika stilar. Enligt The Verge tenderar en låt som genereras av Musenet att börja rimligt men sedan hamna i kaos ju längre den spelas.[33][34]
Open AI:s Jukebox (2020) är en öppen källkodsalgoritm för att generera musik med sång. Efter att ha tränat på 1,2 miljoner samplingar, accepterar systemet en genre, artist och ett stycke text och matar ut låtprover. Open AI konstaterade att låtarna "visar lokal musikalisk koherens, följer traditionella ackordmönster" men erkände att låtarna saknar "bekanta större musikaliska strukturer som refränger som upprepas" och att "det finns en betydande klyfta" mellan Jukebox och mänskligt genererad musik. The Verge sa "Det är tekniskt imponerande, även om resultaten låter som sörjiga versioner av låtar som kan kännas bekanta", medan Business Insider sa "överraskande nog är några av de resulterande låtarna catchy och låter legitima".[35][36][37]
API
[redigera | redigera wikitext]I juni 2020 tillkännagav Open AI ett multifunktions-API som det sa var "för att komma åt nya AI-modeller utvecklade av Open AI för att låta utvecklare kalla på det för "alla engelska AI-uppgifter".[29][38]
DALL-E och CLIP
[redigera | redigera wikitext]DALL-E är en transformatormodell som skapar bilder från textbeskrivningar, avslöjade av Open AI i januari 2021.[39]
CLIP gör tvärtom: det skapar en beskrivning för en given bild.[40] DALL-E använder en version med 12 miljarder parametrar av GPT-3 för att tolka naturliga språkinmatningar (som "en grön läderväska formad som en femhörning" eller "en isometrisk vy av en sorglig kapybara") och generera motsvarande bilder. Den kan skapa bilder av realistiska föremål ("ett målat glasfönster med en bild av en blå jordgubbe") såväl som föremål som inte finns i verkligheten ("en kub med strukturen av ett piggsvin"). Från och med mars 2021 finns inget API eller kod tillgänglig.[41]
Microscope
[redigera | redigera wikitext]Open AI Microscope[42] är en samling visualiseringar av varje betydande lager och neuron av åtta olika neurala nätverksmodeller som ofta studeras i tolkningsbarhet. Microscope skapades för enkel analys av funktionerna som bildas i dessa neurala nätverk. Modellerna som ingår är Alexnet, VGG 19, olika versioner av Inception och olika versioner av CLIP Resnet.[42]
Codex
[redigera | redigera wikitext]Open AI Codex är en ättling till GPT-3 som dessutom har tränats på kod från 54 miljoner Github-repositories.[43][44] Det tillkännagavs i mitten av 2021 som AI som driver kodautokompletteringsverktyget Github Copilot.[44] I augusti 2021 släpptes ett API i privat beta. Enligt Open AI kan modellen skapa arbetskod i över ett dussin programmeringsspråk, mest effektivt i Python.[43]
Flera problem med fel, designbrister och säkerhetsbrister har tagits upp.[45][46]
Debaclet november 2023
[redigera | redigera wikitext]Enligt Max Tegmark, i SVT:s Aktuellt den 23 nov 2023, handlade den då aktuella Open AI-debatten om: Ska företagens girighet få styra AI, eller måste inte AI:s säkerhet nu regleras mer (exempelvis som avseende läkemedel i Sverige). Riskerna kan vara att terrorister utnyttjar nästa generations AI exempelvis för att framställa biologiska vapen, att människors arbeten görs bättre och billigare av AI, samt att man låter bygga maskiner som är bättre än "oss", istället för att "vi" ser till att AI hjälper människorna.[47]
Referenser
[redigera | redigera wikitext]- Den här artikeln är helt eller delvis baserad på material från engelskspråkiga Wikipedia, OpenAI, 23 juni 2016.
Noter
[redigera | redigera wikitext]- ^ ”Elon Musk And Peter Thiel Launch OpenAI, A Non-Profit Artificial Intelligence Research Company”. Forbes. http://www.forbes.com/sites/theopriestley/2015/12/11/elon-musk-and-peter-thiel-launch-openai-a-non-profit-artificial-intelligence-research-company/. Läst 14 december 2015.
- ^ ”Elon Musk just announced a new artificial intelligence research company”. Tech Insider. http://www.techinsider.io/elon-musk-just-announced-a-new-artificial-intelligence-research-company-2015-12. Läst 14 december 2015.
- ^ Olanoff, Drew. ”Artificial Intelligence Nonprofit OpenAI Launches With Backing From Elon Musk And Sam Altman”. https://techcrunch.com/2015/12/11/non-profit-openai-launches-with-backing-from-elon-musk-and-sam-altman/. Läst 14 december 2015.
- ^ ”Robot hand solves Rubik’s cube, but not the grand challenge” (på brittisk engelska). BBC News. 15 oktober 2019. https://www.bbc.com/news/technology-50064225. Läst 27 december 2021.
- ^ By (18 mars 2019). ”Elon Musk's Artificial Intelligence Group Opens A 'Gym' To Train A.I.” (på amerikansk engelska). Popular Science. https://www.popsci.com/elon-musks-artificial-intelligence-group-opens-gym-to-train-ai/. Läst 27 december 2021.
- ^ ”OpenAI Gym Beta” (på engelska). OpenAI. 28 april 2016. https://openai.com/blog/openai-gym-beta/. Läst 27 december 2021.
- ^ OpenAI. ”Gym: A toolkit for developing and comparing reinforcement learning algorithms”. gym.openai.com. Arkiverad från originalet den 28 januari 2019. https://web.archive.org/web/20190128083037/https://gym.openai.com/. Läst 27 december 2021.
- ^ ”https://twitter.com/gdb/status/907855318591438848”. Twitter. https://twitter.com/gdb/status/907855318591438848. Läst 27 december 2021.
- ^ Simonite, Tom. ”AI Sumo Wrestlers Could Make Future Robots More Nimble” (på amerikansk engelska). Wired. ISSN 1059-1028. https://www.wired.com/story/ai-sumo-wrestlers-could-make-future-robots-more-nimble/. Läst 27 december 2021.
- ^ ”OpenAI’s Goofy Sumo-Wrestling Bots Are Smarter Than They Look” (på engelska). MIT Technology Review. https://www.technologyreview.com/2017/10/12/148618/openais-goofy-sumo-wrestling-bots-are-smarter-than-they-look/. Läst 27 december 2021.
- ^ Greene, Tristan (4 maj 2018). ”OpenAI's Debate Game teaches you and your friends how to lie like robots” (på engelska). TNW | Artificial-Intelligence. https://thenextweb.com/news/openais-debate-game-teaches-you-and-your-friends-how-to-lie-like-robots. Läst 27 december 2021.
- ^ Melendez, Steven (8 maj 2018). ”Why Scientists Think AI Systems Should Debate Each Other” (på amerikansk engelska). Fast Company. https://www.fastcompany.com/40569116/why-scientists-think-ai-systems-should-debate-each-other. Läst 27 december 2021.
- ^ ”Learning Dexterity” (på engelska). OpenAI. 30 juli 2018. https://openai.com/blog/learning-dexterity/. Läst 27 december 2021.
- ^ Ryan, Mae; Metz, Cade; Taylor, Rumsey (30 juli 2018). ”How Robot Hands Are Evolving to Do What Ours Can” (på amerikansk engelska). The New York Times. ISSN 0362-4331. https://www.nytimes.com/interactive/2018/07/30/technology/robot-hands.html,%20https://www.nytimes.com/interactive/2018/07/30/technology/robot-hands.html. Läst 27 december 2021.
- ^ OpenAI; Akkaya, Ilge; Andrychowicz, Marcin; Chociej, Maciek; Litwin, Mateusz; McGrew, Bob; Petron, Arthur; Paino, Alex; et al. (2019). ”Solving Rubik's Cube with a Robot Hand”. https://arxiv.org/abs/1910.07113v1.
- ^ [a b] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever (27 december 2021). ”Improving Language Understanding by Generative Pre-Training”. OpenAI. https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf.
- ^ ”New AI fake text generator may be too dangerous to release, say creators” (på engelska). the Guardian. 14 februari 2019. http://www.theguardian.com/technology/2019/feb/14/elon-musk-backed-ai-writes-convincing-news-fiction. Läst 27 december 2021.
- ^ ”Could ‘fake text’ be the next global political threat?” (på engelska). the Guardian. 4 juli 2019. http://www.theguardian.com/technology/2019/jul/04/ai-fake-text-gpt-2-concerns-false-information. Läst 27 december 2021.
- ^ Vincent, James (14 februari 2019). ”OpenAI’s new multitalented AI writes, translates, and slanders” (på engelska). The Verge. https://www.theverge.com/2019/2/14/18224704/ai-machine-learning-language-models-read-write-openai-gpt2. Läst 27 december 2021.
- ^ ”GPT-2: 1.5B Release” (på engelska). OpenAI. 5 november 2019. https://openai.com/blog/gpt-2-1-5b-release/. Läst 27 december 2021.
- ^ ”Write With Transformer”. transformer.huggingface.co. Arkiverad från originalet den 4 december 2019. https://web.archive.org/web/20191204060111/https://transformer.huggingface.co/. Läst 27 december 2021.
- ^ ”InferKit”. app.inferkit.com. https://app.inferkit.com/demo. Läst 27 december 2021.
- ^ ”Creative Engines”. creativeengines.ai. Arkiverad från originalet den 27 december 2021. https://web.archive.org/web/20211227075739/https://creativeengines.ai/index.html. Läst 27 december 2021.
- ^ Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskeve (27 december 2021). ”Language Models are Unsupervised Multitask Learners”. https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf.
- ^ ”GPT-3: Language Models are Few-Shot Learners”. OpenAI. 27 december 2021. https://github.com/openai/gpt-3. Läst 27 december 2021.
- ^ ”OpenAI Releases GPT-3, The Largest Model So Far” (på amerikansk engelska). Analytics India Magazine. 3 juni 2020. https://analyticsindiamag.mystagingwebsite.com/open-ai-gpt-3-language-model/. Läst 27 december 2021.
- ^ ”(TF)² #2 - Svensk textgenerering och GPT-3”. Tenfifty. 12 februari 2021. https://tenfifty.io/sv/tf²-2-svensk-textgenerering-och-gpt-3/. Läst 27 december 2021.
- ^ Brown, Tom; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; et al. (1 juni 2020). ”Language Models are Few-Shot Learners”. sid. appendix. https://arxiv.org/abs/2005.14165.
- ^ [a b] ”OpenAI API” (på engelska). OpenAI. 11 juni 2020. https://openai.com/blog/openai-api/. Läst 27 december 2021.
- ^ Eadicicco, Lisa. ”The artificial intelligence company that Elon Musk helped found is now selling the text-generation software it previously said was too dangerous to launch” (på amerikansk engelska). Business Insider. https://www.businessinsider.com/elon-musk-openai-sell-text-tool-it-said-was-dangerous-2020-6. Läst 27 december 2021.
- ^ ”OpenAI is giving Microsoft exclusive access to its GPT-3 language model” (på engelska). MIT Technology Review. https://www.technologyreview.com/2020/09/23/1008729/openai-is-giving-microsoft-exclusive-access-to-its-gpt-3-language-model/. Läst 27 december 2021.
- ^ ”Microsoft gets exclusive license for OpenAI’s GPT-3 language model” (på amerikansk engelska). VentureBeat. 22 september 2020. https://venturebeat.com/2020/09/22/microsoft-gets-exclusive-license-for-openais-gpt-3-language-model/. Läst 27 december 2021.
- ^ Porter, Jon (26 april 2019). ”OpenAI’s MuseNet generates AI music at the push of a button” (på engelska). The Verge. https://www.theverge.com/2019/4/26/18517803/openai-musenet-artificial-intelligence-ai-music-generation-lady-gaga-harry-potter-mozart. Läst 27 december 2021.
- ^ ”MuseNet” (på engelska). OpenAI. 25 april 2019. https://openai.com/blog/musenet/. Läst 27 december 2021.
- ^ Stephen, Bijan (30 april 2020). ”OpenAI introduces Jukebox, a new AI model that generates genre-specific music” (på engelska). The Verge. https://www.theverge.com/2020/4/30/21243038/openai-jukebox-model-raw-audio-lyrics-ai-generated-copyright. Läst 27 december 2021.
- ^ Leskin, Paige. ”This AI is creating some surprisingly good bops based on music by Katy Perry and Kanye West — listen to some of the best” (på amerikansk engelska). Business Insider. https://www.businessinsider.com/jukebox-ai-music-generator-realistic-songs-machine-learning-algorithm-deepfakes-2020-5. Läst 27 december 2021.
- ^ ”Jukebox” (på engelska). OpenAI. 30 april 2020. https://openai.com/blog/jukebox/. Läst 27 december 2021.
- ^ ”OpenAI makes an all-purpose API for its text-based AI capabilities” (på amerikansk engelska). TechCrunch. Arkiverad från originalet den 29 april 2023. https://web.archive.org/web/20230429231815/https://techcrunch.com/2020/06/11/openai-makes-an-all-purpose-api-for-its-text-based-ai-capabilities/. Läst 27 december 2021.
- ^ ”DALL·E: Creating Images from Text” (på engelska). OpenAI. 5 januari 2021. https://openai.com/blog/dall-e/. Läst 27 december 2021.
- ^ ”CLIP: Connecting Text and Images” (på engelska). OpenAI. 5 januari 2021. https://openai.com/blog/clip/. Läst 27 december 2021.
- ^ ”Multimodal Neurons in Artificial Neural Networks” (på engelska). OpenAI. 4 mars 2021. https://openai.com/blog/multimodal-neurons/. Läst 27 december 2021.
- ^ [a b] ”OpenAI Microscope” (på engelska). OpenAI. 14 april 2020. https://openai.com/blog/microscope/. Läst 27 december 2021.
- ^ [a b] ”OpenAI Announces 12 Billion Parameter Code-Generation AI Codex” (på engelska). InfoQ. https://www.infoq.com/news/2021/08/openai-codex/. Läst 27 december 2021.
- ^ [a b] ”OpenAI warns AI behind GitHub’s Copilot may be susceptible to bias” (på amerikansk engelska). VentureBeat. 8 juli 2021. https://venturebeat.com/2021/07/08/openai-warns-ai-behind-githubs-copilot-may-be-susceptible-to-bias/. Läst 27 december 2021.
- ^ ”What to expect from OpenAI’s Codex API” (på amerikansk engelska). VentureBeat. 16 augusti 2021. https://venturebeat.com/2021/08/16/what-to-expect-from-openais-codex-api/. Läst 27 december 2021.
- ^ Francisco, Thomas Claburn in San. ”GitHub's Copilot may steer you into dangerous waters about 40% of the time – study” (på engelska). www.theregister.com. https://www.theregister.com/2021/08/25/github_copilot_study/. Läst 27 december 2021.
- ^ ”Open AI - Frågor väcks om ny upptäckt (25:25)”. Aktuellt kl 21:00. Svt. 23 november 2023. https://www.svtplay.se/video/eJdVmPz/aktuellt/ikvall-21-00?id=eJdVmPz. Läst 23 november 2023.
Externa länkar
[redigera | redigera wikitext]
|