Video: Big Data & Brews: Ari Zilka, CTO of Hortonworks on the Hortonworks vision and ecosystem 2025
Senest i år 2010 ble Hadapt dannet som en oppstart av to Yale universitetsstuderende og en assisterende professor i datavitenskap. Professor Daniel Abadi og Kamil Bajda-Pawlikowski, en doktorand fra Yales datavitenskapsavdeling, hadde jobbet med forskningsprosjektet HadoopDB.
Etter at dette papiret ble publisert, ble Justin Borgman, en student fra Yale School of Management, interessert i arbeidet. Han ville senere gå sammen med professor Abadi og Kamil Bajda-Pawlikowski for å danne Hadapt.
Hadapt-strategien er å bli med i Apache Hadoop med en delt-ingenting-MPP-database for å skape en adaptiv analyseplattform. Denne tilnærmingen gir et standard SQL-grensesnitt på Hadoop og gjør det mulig å analysere på tvers av ustrukturerte, semistrukturerte og strukturerte data i samme klynge.
Som Apache Hive og andre teknologier tilbyr Hadapt et kjent JDBC / ODBC-grensesnitt for å sende inn SQL eller MapReduce-jobber til klyngen. Hadapt tilbyr en kostnadsbasert søkoptimaliserer, som kan bestemme mellom en kombinasjon av jobber med MapReduce og MPP-databaser for å oppfylle en forespørsel, eller jobben kan håndteres av MPP-databasen for rask, interaktiv respons.
Ved å bli med i en Apache Hadoop-klynge med en MPP-databasekluster for å opprette et hybridsystem, løser Hadapt spørringenes svarstid og delvis SQL-støtte (via HiveQL) funnet i Apache Hive.
