반응형

설치 환경

OSX 10.10 에서 parallels 8 로 CentOS 6.6 을 띄워서 작업

Oracle java 1.7.0_79


fl1 이라는 서버에 zookeeper server 를 3개 띄울 것이다


간혹 # 뒤에 문자열이 더 있는 건 2번 또는 3번에서 그렇게 설정한다



tickTime=2000
dataDir=/var/lib/zookeeper/1/data # /var/lib/zookeeper/2/data /var/lib/zookeeper/3/data
dataLogDir=/var/lib/zookeeper/1/logs # /var/lib/zookeeper/2/logs /var/lib/zookeeper/3/logs
initLimit=5
syncLimit=2
clientPort=2181 # 2182 2183
server.1=fl1:2888:3888
server.2=fl1:2889:3889
server.3=fl1:2890:3890



zookeeper.log.dir=/var/lib/zookeeper/1/logs # /var/lib/zookeeper/2/logs /var/lib/zookeeper/3/logs



ZOO_LOG_DIR="/var/lib/zookeeper/1/logs” # /var/lib/zookeeper/2/logs /var/lib/zookeeper/3/logs



zookeeper cli 에 접속되면 아래를 입력하여 제대로 나오는지 확인한다


반응형
Posted by FeliZ_하늘..
,
반응형

내 환경은


CentOS 6.6

Oracle Java 1.7.0_79

Apache Hadoop 2.6.0

Apache Hive 1.2.1

Mysql 5.1.73


일단 hive binary 파일을 다운받고 압축풀고 HIVE_HOME, PATH 설정을 해준다


그리고 mysql jdbc driver 를 받아서 압축풀고 jar 파일을 hive/lib 아래로 옮긴다



그리고 $HIVE_HOME/conf 에 가보면


hive-default.xml.template 파일이 있다


복사하면서 파일명을 hive-site.xml 로 바꾼다


아니면 hivemetastore-site.xml 과 hiveserver2-site.xml 로 나눠도 된다


알맞게 설정 후 hive 명령어로 cli 를 실행하든 뭘 하든 하면 된다


hive-site.xml 이어야 반영된다는걸 몰라서 좀 헤맸다


참고 https://cwiki.apache.org/confluence/display/Hive/AdminManual+MetastoreAdmin


-------------------------------------------------------------------------------


hivemetastore-site.xml



-------------------------------------------------------------------------------


hiveserver2-site.xml



-------------------------------------------------------------------------------


hive-site.xml



반응형
Posted by FeliZ_하늘..
,
반응형

뭣도 모르고 hadoop 을 /home 에다가 설치해버려서


hadoop 사용 중 partition 의 용량부족으로 인해 hadoop start 가 안됐었다


그래서


namenode 와 datanode 의 디렉토리를 남는 파티션으로 이동해서 해결했다


multi node 로 구성했을 경우 전 노드 똑같이 해줘야 한다


이동 후 namenode 와 datanode 위치 값을 수정한다


vi ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml


dfs.namenode.name.dir

dfs.datanode.data.dir


위 2개의 값을 이동한 디렉토리로 수정한다

반응형

'[BigData] > [Apache Hadoop]' 카테고리의 다른 글

hadoop 2.6.0 hdfs 기본 정보  (0) 2015.07.09
hadoop 2.6.0 yarn 기본 정보  (0) 2015.07.09
hadoop 시작 명령어 start up  (0) 2015.07.09
Posted by FeliZ_하늘..
,
반응형

https://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

반응형

'[BigData] > [Apache Hadoop]' 카테고리의 다른 글

hadoop 사용시 local 용량부족  (0) 2015.07.09
hadoop 2.6.0 yarn 기본 정보  (0) 2015.07.09
hadoop 시작 명령어 start up  (0) 2015.07.09
Posted by FeliZ_하늘..
,
반응형

https://hadoop.apache.org/docs/r2.6.0/hadoop-yarn/hadoop-yarn-common/yarn-default.xml

반응형

'[BigData] > [Apache Hadoop]' 카테고리의 다른 글

hadoop 사용시 local 용량부족  (0) 2015.07.09
hadoop 2.6.0 hdfs 기본 정보  (0) 2015.07.09
hadoop 시작 명령어 start up  (0) 2015.07.09
Posted by FeliZ_하늘..
,
반응형

https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html#Hadoop_Startup

반응형

'[BigData] > [Apache Hadoop]' 카테고리의 다른 글

hadoop 사용시 local 용량부족  (0) 2015.07.09
hadoop 2.6.0 hdfs 기본 정보  (0) 2015.07.09
hadoop 2.6.0 yarn 기본 정보  (0) 2015.07.09
Posted by FeliZ_하늘..
,
반응형

일단 목표는 타조 설치 후 mysql 로 metadata 를 저장하는 것이다


tajo 를 설치하기 위해서는 protocol buffer 2.5.0 이 필요하다고 한다.


저번에 이미 protocol buffer 2.5 는 설치했다


내 환경은


iMac 이고 os 는 10.10 Yosemite 에서 Parallels 8 로 ubuntu 12.04 를 띄워서 테스트 했다


ubuntu 12.04

apache hadoop 2.6.0

mysql 5.5.43

oracle java 1.7.0_80

apache maven 3.3.3

protocol buffer 2.5.0


싱글 노드로 테스트 할것이다


일단 git 에서 tajo 를 받는다


현재는 0.11.0 이 받아진다


페이스북 한국 타조 유저 그룹을 보니 0.11.0 에 row 단위 insert 기능이 추가 될 예정이라고 한다


tajo 는 대용량 데이터 저장 용도로 설계됐기 때문에 되지 않았다고 한다


테스트 결과 0.11.0 이지만 아직 구현은 안된것 같다 syntax error 가 난다.


$ git clone https://github.com/apache/tajo.git

$ cd tajo

$ mvn clean install -DskipTests -Pdist -Dtar -Dhadoop.version=2.6.0

$ cd tajo-dist/target/tajo-0.11.0-SNAPSHOT/conf

$ cp catalog-site.xml.template catalog-site.xml

$ cp tajo-site.xml.template tajo-site.xml

$ vi catalog-site.xml


tajo.catalog.jdbc.connection.id

tajo.catalog.jdbc.connection.password

tajo.catalog.store.class

  <value>org.apache.tajo.catalog.store.MySQLStore</value>

tajo.catalog.jdbc.uri


4개 속성의 주석을 제거하고 각자 환경에 맞게 수정한다.(tajo.catalog.store.class 속성의 value 는 그대로 둔다)


$ vi tajo-site.xml


tajo.rootdir 속성을 각자 환경에 맞게 수정한다.


나는 hdfs://localhost:54310 으로 수정했다


$ vi tajo-env.sh


HADOOP_HOME

JAVA_HOME

TAJO_CLASSPATH


3가지 속성을 수정한다.(TAJO_CLASSPATH 는 mysql jdbc jar 파일의 절대경로를 적어준다)


$ vi ~/.bashrc


맨 아래에 아래를 추가해준다


export TAJO_HOME=[설치한 tajo 경로]/tajo-dist/target/tajo-0.11.0-SNAPSHOT

export PATH=$PATH:$TAJO_HOME/bin


$ source ~/.bashrc

$ cd $TAJO_HOME/bin

$ ./start-tajo.sh

$ ./tsql


default>


default> 가 뜨면 성공!


그러면 hdfs 상에 /system, /tmp, /warehouse 가 생기고


mysql 에 tajo 라는 database 가 생길 것이다

반응형

'[BigData] > [Apache TAJO]' 카테고리의 다른 글

처음 실행시 TajoMaster 가 죽는 경우  (0) 2015.11.01
Posted by FeliZ_하늘..
,
반응형

기본적으로 HAWQ 는 postgresql 8.2 를 사용중이므로


아래 쿼리들은 몇몇 쿼리를 제외하고는 postgresql 8.2 에서도 사용 가능하지만


postgresql 9.x 에서는 8.x 와 엔진 자체가 달라서 사용 불가능하다.


mybatis 에서 사용하는 쿼리 형식 비슷하게 개발중이기 때문에


아래 쿼리 중에는 바로 실행 불가능한 쿼리들도 있다


간혹 dbSchemaTable 이란 변수가 있는데 이는


database.schema.table 형태로 써주면 된다. ex) gpadmin.public.table_name


설명

쿼리


현재 실행중인 쿼리의 pid 조회

SELECT pg_backend_pid();


autocommit 상태 조회

show autocommit;


hawq version 조회

SELECT

    productversion

FROM

    pg_catalog.gp_version_at_initdb;


모든 데이터베이스 database 조회

SELECT

    datname "databaseName"

FROM

    pg_database

ORDER BY

    datname;


모든 스키마 schema 조회

SELECT

    schema_name "schemaName"

FROM

    information_schema.schemata

ORDER BY

    schema_name;


기본 스키마 default schema 조회

SHOW search_path;


특정 database 의 schema 내 모든 테이블 table 조회

SELECT

    t.table_catalog

   ,t.table_schema

   ,t.table_name

   ,t.table_type

   ,t.is_insertable_into

   ,t.is_typed

   ,c.relstorage

   ,c.oid::int

   ,'TABLE' object_type

   ,'('||pg_size_pretty(pg_relation_size(c.oid))||')' table_size

   ,'('||pg_size_pretty(

        (

            SELECT

                sum(pg_relation_size(ns.nspname||'.'||pp.partitiontablename))

            FROM

                pg_class cl

                    INNER JOIN pg_namespace ns ON cl.relnamespace = ns.oid

                    INNER JOIN pg_partitions pp ON cl.relname = pp.tablename

            WHERE pp.tablename = c.relname

        )::bigint

   )||')' size

FROM

    information_schema.tables t

    INNER JOIN pg_namespace s ON t.table_schema = s.nspname

    INNER JOIN pg_class c ON t.table_name = c.relname AND s.oid = c.relnamespace

    LEFT JOIN pg_partitions p ON t.table_name = p.partitiontablename

WHERE

    p.tablename IS NULL

GROUP BY

    t.table_catalog

   ,t.table_schema

   ,t.table_name

   ,t.table_type

   ,t.is_insertable_into

   ,t.is_typed

   ,c.relstorage

   ,p.partitiontablename

   ,c.oid

   ,c.relname

HAVING

    t.table_catalog = #{databaseName} AND

    t.table_schema = #{schemaName} AND

    c.relstorage NOT IN ('v', 'x')

ORDER BY

    t.table_name;


특정 database 의 schema 내 모든 뷰 view 조회

SELECT

    c.oid::int

   ,t.table_catalog

   ,t.table_schema

   ,t.table_name

   ,t.table_type

   ,t.is_insertable_into

   ,t.is_typed

   ,'VIEW' object_type

FROM

    information_schema.tables t

    INNER JOIN pg_namespace s ON t.table_schema = s.nspname

    INNER JOIN pg_class c ON t.table_name = c.relname AND s.oid = c.relnamespace

    LEFT JOIN pg_partitions p ON t.table_name = p.partitiontablename

WHERE

    t.table_catalog = #{databaseName} AND

    t.table_schema = #{schemaName} AND

    t.table_type = 'VIEW'

ORDER BY

    t.table_name;


특정 database 의 schema 내 모든 external 테이블 external table 조회

SELECT

    t.table_catalog

   ,t.table_schema

   ,t.table_name

   ,t.table_type

   ,t.is_insertable_into

   ,t.is_typed

   ,c.relstorage

   ,c.oid::int

   ,'EXTTABLE' object_type

FROM

    information_schema.tables t

    INNER JOIN pg_namespace s ON t.table_schema = s.nspname

    INNER JOIN pg_class c ON t.table_name = c.relname AND s.oid = c.relnamespace

GROUP BY

    t.table_catalog

   ,t.table_schema

   ,t.table_name

   ,t.table_type

   ,t.is_insertable_into

   ,t.is_typed

   ,c.relstorage

   ,c.oid

HAVING

    t.table_catalog = #{databaseName} AND

    t.table_schema = #{schemaName} AND

    c.relstorage = 'x'

ORDER BY

    t.table_name;


특정 database 의 schema 내 모든 함수 function 조회

SELECT

    p.oid

   ,a.rolname

   ,n.nspname

   ,p.proname

   ,l.lanname

   ,p.pronargs

   ,p.prorettype::regtype

   ,oidvectortypes(p.proargtypes) proargtypes

   ,p.prosrc

   ,p.proname||'('||oidvectortypes(p.proargtypes)||')' procdesc

   ,'FUNCTION' object_type

FROM pg_proc p

    INNER JOIN pg_namespace n ON n.oid = p.pronamespace

    INNER JOIN pg_authid a ON a.oid = p.proowner

    INNER JOIN pg_language l ON l.oid = p.prolang

WHERE

    n.nspname = #{schemaName} AND

    p.prorettype != 'trigger'::regtype

ORDER BY

    p.proname;


특정 database 의 schema 내 object 의 모든 컬럼 column 조회

SELECT

    table_catalog

   ,table_schema

   ,table_name

   ,column_name

   ,ordinal_position

   ,column_default

   ,is_nullable

   ,data_type

   ,character_maximum_length

   ,col_description(#{dbSchemaTable}::regclass, ordinal_position) column_comment

FROM

    information_schema.columns

WHERE

    table_catalog = #{databaseName} AND

    table_schema = #{schemaName} AND

    table_name = #{tableName}

ORDER BY

    ordinal_position;


모든 tablespace 조회

SELECT

    spcname

FROM

    pg_tablespace

ORDER BY

    spcname;


모든 custom formatter 조회

SELECT

    p.proname

FROM

    pg_proc p

    INNER JOIN pg_namespace n ON n.oid = p.pronamespace

    INNER JOIN pg_authid a ON a.oid = p.proowner

    INNER JOIN pg_language l ON l.oid = p.prolang

WHERE

    (p.prorettype = 'record'::regtype OR oidvectortypes(p.proargtypes) = 'record') AND

    l.lanname != 'internal' AND

    n.nspname = 'pg_catalog'

ORDER BY p.proname;


특정 database 의 schema 내 모든 제약사항 constraint 조회

SELECT

    conname

   ,contype

   ,array_to_string(conkey, ',') conkeys

   ,array_upper(conkey, 1) length

   ,substring(consrc from 2 for char_length(consrc) - 2) consrc

FROM

    pg_constraint

WHERE

    #{dbSchemaTable}::regclass = conrelid

ORDER BY

    length

   ,conname;


특정 테이블의 파티션정의 partition definition 조회

SELECT pg_get_partition_def(#{dbSchemaTable}::regclass) partitiondef;


특정 테이블의 파티션테이블 partition table 조회

SELECT

    c.oid id

   ,c.oid

   ,ns.nspname

   ,c.relname

   ,c.relname table_name

   ,c.relname text

   ,c.relhassubclass

   ,not(c.relhassubclass) leaf

   ,pr.parname

   ,t.table_type

   ,'TABLE' object_type

   ,c.relstorage

FROM pg_class c

    INNER JOIN pg_partition_rule pr ON c.oid = pr.parchildrelid

    INNER JOIN pg_inherits i ON c.oid = i.inhrelid

    INNER JOIN pg_namespace ns ON c.relnamespace = ns.oid

    INNER JOIN information_schema.tables t ON (t.table_name = c.relname AND ns.oid = c.relnamespace)

WHERE

    c.relkind = 'r' AND

    i.inhparent = #{oid}::oid

ORDER BY

    c.relname;


파티션 테이블 partition table 의 정보 조회

SELECT

    schemaname

   ,tablename

   ,partitiontablename

   ,partitionname

   ,parentpartitiontablename

   ,parentpartitionname

   ,partitiontype

   ,partitionlevel

   ,partitionrank

   ,partitionposition

   ,partitionlistvalues

   ,partitionrangestart

   ,partitionstartinclusive

   ,partitionrangeend

   ,partitionendinclusive

   ,partitioneveryclause

   ,partitionisdefault

   ,partitionboundary

   ,parenttablespace

   ,partitiontablespace

FROM

    pg_partitions

WHERE

    schemaname = #{schemaName} AND

    partitiontablename = #{tableName};


분산키 distributed key 조회

SELECT

    cl.relname

   ,array_to_string(dp.attrnums, ',') attrnums

FROM

    gp_distribution_policy dp

INNER JOIN pg_class cl ON dp.localoid = cl.oid

LEFT JOIN pg_namespace ns ON cl.relnamespace = ns.oid

WHERE

    ns.nspname = #{schemaName} AND

cl.relname = #{tableName};


실행중인 쿼리 세션 중지 query session kill terminate

SELECT pg_terminate_backend(#{pid});


모든 리소스큐 resource queue 조회

SELECT

    q.oid::int as queueid,

    q.rsqname as rsqname,

t1.value::int as rsqcountlimit,

t2.value::int as rsqcountvalue,

t3.value::real as rsqcostlimit,

t4.value::real as rsqcostvalue,

t5.value::real as rsqmemorylimit,

t6.value::real as rsqmemoryvalue,

t7.value::int as rsqwaiters,

t8.value::int as rsqholders

FROM pg_resqueue q,

pg_resqueue_status_kv() t1 (queueid oid, key text, value text),

pg_resqueue_status_kv() t2 (queueid oid, key text, value text),

pg_resqueue_status_kv() t3 (queueid oid, key text, value text),

pg_resqueue_status_kv() t4 (queueid oid, key text, value text),

pg_resqueue_status_kv() t5 (queueid oid, key text, value text),

pg_resqueue_status_kv() t6 (queueid oid, key text, value text),

pg_resqueue_status_kv() t7 (queueid oid, key text, value text),

pg_resqueue_status_kv() t8 (queueid oid, key text, value text)

WHERE

q.oid = t1.queueid

AND t1.queueid = t2.queueid

AND t2.queueid = t3.queueid

AND t3.queueid = t4.queueid

AND t4.queueid = t5.queueid

AND t5.queueid = t6.queueid

AND t6.queueid = t7.queueid

AND t7.queueid = t8.queueid

AND t1.key = 'rsqcountlimit'

AND t2.key = 'rsqcountvalue'

AND t3.key = 'rsqcostlimit'

AND t4.key = 'rsqcostvalue'

AND t5.key = 'rsqmemorylimit'

AND t6.key = 'rsqmemoryvalue'

AND t7.key = 'rsqwaiters'

AND t8.key = 'rsqholders'

ORDER BY

    q.rsqname

   ,t1.value;


모든 그룹롤 group role 조회

SELECT

    oid::int

   ,rolname

   ,rolsuper

   ,rolinherit

   ,rolcreaterole

   ,rolcreatedb

   ,rolcatupdate

   ,rolcanlogin

   ,rolconnlimit

   ,rolvaliduntil

   ,rolconfig

   ,rolresqueue

   ,rolcreaterextgpfd

   ,rolcreaterexthttp

   ,rolcreatewextgpfd

   ,rolcreaterexthdfs

   ,rolcreatewexthdfs

FROM

pg_roles

WHERE

    not(rolcanlogin)

ORDER BY

    rolname;


모든 로그인롤 login role 조회

SELECT

    oid::int

   ,rolname

   ,rolsuper

   ,rolinherit

   ,rolcreaterole

   ,rolcreatedb

   ,rolcatupdate

   ,rolcanlogin

   ,rolconnlimit

   ,rolvaliduntil

   ,rolconfig

   ,rolresqueue

   ,rolcreaterextgpfd

   ,rolcreaterexthttp

   ,rolcreatewextgpfd

   ,rolcreaterexthdfs

   ,rolcreatewexthdfs

FROM

pg_roles

WHERE

    rolcanlogin

ORDER BY

    rolname;


특정 롤 role 조회

SELECT

    ro.oid::int

   ,ro.rolname

   ,ro.rolsuper

   ,ro.rolinherit

   ,ro.rolcreaterole

   ,ro.rolcreatedb

   ,ro.rolcatupdate

   ,ro.rolcanlogin

   ,ro.rolconnlimit

   ,to_char(ro.rolvaliduntil, 'YYYY-MM-DD') rolvaliduntil

   ,ro.rolconfig

   ,ro.rolresqueue

   ,rq.rsqname

   ,ro.rolcreaterextgpfd

   ,ro.rolcreaterexthttp

   ,ro.rolcreatewextgpfd

   ,ro.rolcreaterexthdfs

   ,ro.rolcreatewexthdfs

FROM

pg_roles ro

INNER JOIN pg_resqueue rq ON ro.rolresqueue = rq.oid

WHERE

    ro.oid = #{oid};


실행중인 세션 session 조회

SELECT

    datid

   ,datname

   ,procpid

   ,sess_id

   ,usesysid

   ,usename _username

   ,CASE WHEN length(current_query) > 1022 THEN current_query||'(...)'

         ELSE current_query

    END current_query

   ,waiting

   ,to_char(query_start, 'YYYY-MM-DD HH24:MI:SS:MS') query_start

   ,to_char(backend_start, 'YYYY-MM-DD HH24:MI:SS:MS') backend_start

   ,client_addr

   ,client_port

   ,application_name

   ,to_char(xact_start, 'YYYY-MM-DD HH24:MI:SS:MS') xact_start

FROM

    pg_stat_activity

WHERE

    current_query not like '%<IDLE>%'

ORDER BY

    query_start

LIMIT

    ${limit}

OFFSET

    ${start};


Lock table 조회

SELECT

    DISTINCT

        w.locktype

       ,w.relation::regclass AS relation

       ,w.mode

       ,w.pid AS waiting_pid

       ,w_stm.current_query waiting_query

       ,other.pid AS other_pid

       ,other_stm.current_query other_query

FROM

    pg_catalog.pg_locks AS w

        JOIN pg_catalog.pg_stat_activity AS w_stm ON w_stm.procpid = w.pid

        JOIN pg_catalog.pg_locks AS other ON

            (w.DATABASE = other.DATABASE AND

                w.relation = other.relation) OR

            w.transactionid = other.transactionid

        JOIN pg_catalog.pg_stat_activity AS other_stm ON other_stm.procpid = other.pid

WHERE

    NOT w.granted AND

    w.pid <> other.pid;


데이터베이스 크기 database size 조회

SELECT

    pg_size_pretty(pg_database_size(#{databaseName}))||

        CASE WHEN pg_database_size(#{databaseName}) > 1023 THEN

            ' ('||

            pg_database_size(#{databaseName})||

            ' bytes)'

            ELSE '' END size;


스키마 크기 schema size 조회

SELECT

    pg_size_pretty(sum(pg_relation_size(schemaname||'.'||tablename))::bigint)||

            CASE WHEN sum(pg_relation_size(schemaname||'.'||tablename))::bigint > 1023 THEN

                ' ('||

                sum(pg_relation_size(schemaname||'.'||tablename))::bigint||

                ' bytes)'

                ELSE '' END size

FROM

    pg_tables

WHERE

    schemaname = #{schemaName};


테이블 크기 table size 조회

SELECT

    pg_size_pretty(pg_relation_size(#{dbSchemaTable}))||

        CASE WHEN pg_relation_size(#{dbSchemaTable}) > 1023 THEN

            ' ('||

            pg_relation_size(#{dbSchemaTable})||

            ' bytes)'

            ELSE '' END size;


어플리케이션 이름 세팅 set application name (쿼리 실행 전 실행해주면 세션 조회에서 조회 가능함)

set application_name=#{appName};


데이터베이스 삭제 drop database

END;

DROP DATABASE IF EXISTS ${dropDatabaseName};

BEGIN;


스키마 삭제 drop schema

DROP SCHEMA IF EXISTS ${schemaName} RESTRICT;


테이블 삭제 drop table

DROP TABLE IF EXISTS ${dbSchemaTable} RESTRICT;


external 테이블 삭제 drop external table

DROP EXTERNAL TABLE IF EXISTS ${dbSchemaTable} RESTRICT;


뷰 삭제 drop view

DROP VIEW IF EXISTS ${dbSchemaView} RESTRICT;


함수 삭제 drop function

DROP FUNCTION IF EXISTS ${dbSchemaFunction} (${proargtypes}) RESTRICT;


리소스큐 삭제 drop resource queue

DROP RESOURCE QUEUE ${queueName};


롤 삭제 drop role

DROP ROLE ${rolname};

반응형

'[BigData] > [Pivotal HAWQ]' 카테고리의 다른 글

hawq 에서 show tables, databases, columns, describe  (1) 2015.02.26
pivotal hawq download  (0) 2015.02.24
Posted by FeliZ_하늘..
,
반응형

내부적으로 postgresql 을 사용하고 있으므로

hawq 매뉴얼에 없는 기능들은

postgresql 명령어를 검색하면 됨

mysql: SHOW TABLES
postgresql: \d
postgresql: SELECT table_name FROM information_schema.tables WHERE table_schema = 'public';

mysql: SHOW DATABASES
postgresql: \l
postgresql: SELECT datname FROM pg_database;

mysql: SHOW COLUMNS
postgresql: \d table
postgresql: SELECT column_name FROM information_schema.columns WHERE table_name ='table';

mysql: DESCRIBE TABLE
postgresql: \d+ table
postgresql: SELECT column_name FROM information_schema.columns WHERE table_name ='table';




반응형

'[BigData] > [Pivotal HAWQ]' 카테고리의 다른 글

metadata 관리 쿼리 manage query  (0) 2015.07.02
pivotal hawq download  (0) 2015.02.24
Posted by FeliZ_하늘..
,
반응형

https://network.pivotal.io/products/pivotal-hd


회원가입 후 다운로드 가능함


Pivotal HD 2.1.0 Single Node VM 2.39 GB


이거 하나만 받으면 된다고 함

반응형
Posted by FeliZ_하늘..
,