Sutskever przedstawił swoje prognozy dotyczące „superinteligentnej AI” — AI bardziej zdolnej niż ludzie w wielu zadaniach, co jego zdaniem zostanie osiągnięte w pewnym momencie. Superinteligentna AI będzie „różna jakościowo” od AI, którą mamy dzisiaj, powiedział Sutskever — i w niektórych aspektach nierozpoznawalna.
„[Superinteligentne] systemy będą faktycznie agentowe w prawdziwy sposób” — powiedział Sutskever, w przeciwieństwie do obecnej grupy „bardzo lekko agentowych” AI. Będą „rozumować” i w rezultacie staną się bardziej nieprzewidywalne. Będą rozumieć rzeczy z ograniczonych danych. I będą samoświadome — uważa Sutskever.
Mogą nawet chcieć swoich praw. „To nie jest zły końcowy rezultat, jeśli masz AI i wszystko, czego chcą, to współistnieć z nami i po prostu mieć prawa” — powiedział Sutskever.
Po odejściu z OpenAI Sutskever założył Safe Superintelligence (SSI), laboratorium skupiające się na ogólnym bezpieczeństwie AI. SSI zebrało 1 miliard dolarów we wrześniu.