PostgreSQL とは?RDB の王道を選ぶ理由と 2025 年の最新動向
データベースを選ぶとき、「どれを使えばいいのか」と迷われた経験はありませんか?数あるデータベースの中でも、PostgreSQL は 30 年以上の歴史を持ち、世界中で愛され続けている信頼性の高いリレーショナルデータベース管理システムです。
本記事では、PostgreSQL の基本から、なぜ多くの開発者や企業が PostgreSQL を選び続けるのか、そして 2025 年における最新の動向まで、初心者の方にもわかりやすく解説していきます。これからデータベースを学ぶ方も、既存システムの移行を検討されている方も、ぜひ最後までお付き合いください。
背景
リレーショナルデータベースの重要性
現代の Web アプリケーションやシステム開発において、データベースは心臓部とも言える存在です。ユーザー情報、商品データ、取引履歴など、あらゆる情報を安全に保存し、必要なときに素早く取り出せる仕組みが求められます。
その中でも、リレーショナルデータベース(RDB)は、データを表形式で管理し、テーブル同士の関係性を定義することで、複雑なデータ構造を効率的に扱える点が特徴です。SQL という標準化された言語を使って操作できるため、学習コストが比較的低く、多くの開発者に支持されてきました。
以下の図は、現代のアプリケーション開発におけるデータベースの位置づけを示しています。
mermaidflowchart TB
user["ユーザー"] -->|リクエスト| frontend["フロントエンド<br/>React/Next.js"]
frontend -->|API呼び出し| backend["バックエンド<br/>Node.js/NestJS"]
backend -->|SQL実行| db[("PostgreSQL<br/>データベース")]
db -->|データ返却| backend
backend -->|JSON応答| frontend
frontend -->|画面表示| user
このように、PostgreSQL はバックエンドとデータ層の橋渡しを担い、アプリケーション全体の信頼性とパフォーマンスを支える重要な役割を果たします。
PostgreSQL の誕生と進化
PostgreSQL は、1986 年にカリフォルニア大学バークレー校で始まった「POSTGRES」プロジェクトが起源です。当初から学術的な研究成果を基盤としており、データの整合性と拡張性を重視した設計思想が特徴でした。
1996 年に PostgreSQL という名称に改められ、オープンソースソフトウェアとして公開されて以来、世界中の開発者コミュニティによって継続的に改良が重ねられています。2025 年現在、バージョン 17 まで進化し、高度な機能と安定性を兼ね備えた成熟したデータベースとして広く認知されているのです。
課題
データベース選定における悩み
データベースを選ぶ際、開発者や企業は様々な課題に直面します。代表的な悩みをいくつか挙げてみましょう。
パフォーマンスと拡張性のバランス 大量のデータを扱うシステムでは、読み書きの速度が重要になります。しかし、パフォーマンスを追求するあまり、将来の拡張性が犠牲になってしまうケースも少なくありません。
ライセンスとコストの問題 商用データベースは高機能ですが、ライセンス費用が高額になりがちです。特にスタートアップや中小企業にとって、初期投資の負担は大きな課題となります。
データの整合性とトランザクション管理 金融システムや EC サイトなど、データの正確性が求められるシステムでは、ACID 特性(原子性、一貫性、独立性、永続性)を満たすトランザクション処理が不可欠でしょう。
以下の表は、データベース選定時に考慮すべき主な要素をまとめたものです。
| # | 要素 | 説明 | 重要度 |
|---|---|---|---|
| 1 | パフォーマンス | 読み書き速度、クエリ処理能力 | ★★★ |
| 2 | 拡張性 | データ量増加への対応力 | ★★★ |
| 3 | コスト | ライセンス費用、運用コスト | ★★★ |
| 4 | データ整合性 | ACID 特性のサポート | ★★★ |
| 5 | 学習コスト | 習得の容易さ、ドキュメント充実度 | ★★☆ |
| 6 | コミュニティ | サポート体制、情報の豊富さ | ★★☆ |
NoSQL との比較における迷い
近年、MongoDB や Redis といった NoSQL データベースの台頭により、「RDB は時代遅れなのでは?」という疑問を持つ方もいらっしゃるでしょう。確かに、NoSQL は柔軟なスキーマ設計や水平スケーリングの容易さで注目を集めています。
しかし、複雑な関係性を持つデータや、厳密なトランザクション管理が必要な場面では、依然として RDB の優位性は揺るぎません。問題は、「どちらが優れているか」ではなく、「どのユースケースに適しているか」を見極めることなのです。
解決策
PostgreSQL が選ばれる理由
PostgreSQL は、前述の課題に対して以下のような強力な解決策を提供します。
完全なオープンソースライセンス
PostgreSQL は、PostgreSQL License という非常に寛容なライセンスの下で提供されています。これは BSD ライクなライセンスで、商用利用も含めて自由に使用・改変・再配布が可能です。
ライセンス費用がかからないため、スタートアップから大企業まで、予算を気にせず導入できますね。また、ベンダーロックインのリスクもありません。
高度な ACID 準拠と MVCC
PostgreSQL は、ACID 特性を完全にサポートしています。特に MVCC(Multi-Version Concurrency Control:多版型同時実行制御)という技術により、読み取り操作と書き込み操作が互いにブロックし合わないため、高い同時実行性を実現しているのです。
以下の図は、MVCC の基本的な仕組みを示しています。
mermaidsequenceDiagram
participant T1 as トランザクション1<br/>読み取り
participant DB as PostgreSQL<br/>MVCC
participant T2 as トランザクション2<br/>更新
T1->>DB: データ読み取り開始
DB->>T1: バージョンAを返却
T2->>DB: データ更新開始
DB->>DB: バージョンBを作成
DB->>T2: 更新完了
T1->>DB: 再度読み取り
DB->>T1: バージョンAを返却<br/>一貫性を保持
このように、各トランザクションは独自のスナップショットを持つため、他のトランザクションの影響を受けずに処理を進められます。
豊富なデータ型と JSON 対応
PostgreSQL は、標準的な数値型や文字列型に加えて、以下のような多彩なデータ型をサポートしています。
| # | データ型 | 用途 | 例 |
|---|---|---|---|
| 1 | JSON/JSONB | 半構造化データ | API レスポンス保存 |
| 2 | Array | 配列データ | タグリスト |
| 3 | hstore | キー・バリューペア | 設定情報 |
| 4 | UUID | 一意識別子 | 分散システム ID |
| 5 | Range | 範囲データ | 予約期間 |
| 6 | Geometric | 地理空間データ | 座標情報 |
特に JSONB 型は、NoSQL のような柔軟性と RDB の厳密性を両立できる優れた機能です。インデックスも作成できるため、高速な検索が可能になります。
強力な拡張機能エコシステム
PostgreSQL は、拡張機能(Extension)によって機能を追加できる設計になっています。代表的な拡張機能をいくつかご紹介しましょう。
PostGIS 地理空間データを扱うための拡張機能で、地図アプリケーションや GIS システムの開発に不可欠です。
pg_stat_statements 実行された SQL 文の統計情報を収集し、パフォーマンスチューニングに役立てられます。
pgcrypto 暗号化機能を提供し、機密データを安全に保存できるようになります。
以下の図は、PostgreSQL の拡張可能なアーキテクチャを示しています。
mermaidflowchart TB
core["PostgreSQL<br/>コアエンジン"]
subgraph extensions["拡張機能"]
postgis["PostGIS<br/>地理空間"]
pgvector["pgvector<br/>ベクトル検索"]
timescale["TimescaleDB<br/>時系列"]
citus["Citus<br/>分散処理"]
end
subgraph tools["周辺ツール"]
pgadmin["pgAdmin<br/>管理GUI"]
pgbouncer["PgBouncer<br/>接続プーリング"]
backup["pg_dump/pg_restore<br/>バックアップ"]
end
core --> extensions
core --> tools
このように、コアエンジンに様々な機能を追加することで、用途に応じた最適なデータベース環境を構築できるのです。
2025 年の最新動向
パフォーマンスの飛躍的向上
PostgreSQL 17 では、クエリ実行速度が大幅に改善されました。特に、並列クエリ処理の最適化により、大規模データセットの集計が高速化されています。
また、インクリメンタルソートや JIT コンパイルの改良により、複雑なクエリのパフォーマンスも向上しました。これにより、分析系ワークロードにおいても、PostgreSQL の競争力がさらに高まっているのです。
AI とベクトル検索の統合
2025 年の大きなトレンドとして、AI 分野での PostgreSQL 活用が挙げられます。pgvector 拡張機能により、ベクトルデータの保存と類似度検索が可能になり、RAG(Retrieval-Augmented Generation)システムの構築に最適な選択肢となりました。
OpenAI や Anthropic の API と組み合わせることで、埋め込みベクトルを PostgreSQL に保存し、意味検索を実装できます。これは、従来の全文検索よりも精度の高い検索結果を提供できるでしょう。
クラウドネイティブ対応
AWS RDS、Google Cloud SQL、Azure Database for PostgreSQL など、主要クラウドプラットフォームが PostgreSQL をフルマネージドサービスとして提供しています。これにより、インフラ管理の負担を軽減しながら、PostgreSQL の強力な機能を活用できるようになりました。
また、Kubernetes との親和性も高く、CloudNativePG などのオペレーターを使えば、コンテナ環境での PostgreSQL 運用も容易です。
具体例
基本的なインストールと初期設定
PostgreSQL を実際に使い始める手順を、Docker 環境を例に見ていきましょう。Docker を使えば、環境を汚さずに簡単に PostgreSQL を試せます。
Docker での環境構築
まず、docker-compose.ymlファイルを作成します。このファイルは、PostgreSQL コンテナの設定を定義するものです。
yaml# docker-compose.yml
# PostgreSQL環境の定義
version: '3.8'
services:
postgres:
# PostgreSQL 17の公式イメージを使用
image: postgres:17
container_name: postgres_dev
# 環境変数の設定
environment:
# データベース名
POSTGRES_DB: myapp
# ユーザー名
POSTGRES_USER: developer
# パスワード
POSTGRES_PASSWORD: securepassword
次に、ポート設定とボリューム設定を追加します。これにより、ホストマシンから PostgreSQL に接続でき、データも永続化されます。
yaml # ポートマッピング(ホスト:コンテナ)
ports:
- "5432:5432"
# データ永続化のためのボリューム設定
volumes:
- postgres_data:/var/lib/postgresql/data
# 初期化スクリプトの配置(オプション)
- ./init.sql:/docker-entrypoint-initdb.d/init.sql
# ボリュームの定義
volumes:
postgres_data:
設定ファイルができたら、以下のコマンドでコンテナを起動しましょう。
bash# Docker Composeでコンテナを起動
# -d オプションでバックグラウンド実行
yarn run docker-compose up -d
# コンテナの状態を確認
yarn run docker-compose ps
# ログの確認(起動に問題がないかチェック)
yarn run docker-compose logs postgres
データベースへの接続確認
コンテナが起動したら、実際に接続してみます。psqlという PostgreSQL 公式のクライアントツールを使用します。
bash# コンテナ内のpsqlコマンドを実行
yarn run docker-compose exec postgres psql -U developer -d myapp
# または、ホストマシンにpsqlがインストールされている場合
psql -h localhost -U developer -d myapp
接続できたら、以下のコマンドでバージョンを確認してみましょう。
sql-- PostgreSQLのバージョン確認
SELECT version();
-- 現在のデータベース一覧を表示
\l
-- 現在のデータベース情報を表示
\conninfo
テーブル作成と CRUD 操作
実際のアプリケーション開発を想定して、ユーザー管理システムのテーブルを作成してみます。
テーブル定義
まず、ユーザーテーブルを作成します。このテーブルには、ユーザーの基本情報を保存します。
sql-- usersテーブルの作成
CREATE TABLE users (
-- 主キー(UUID型を使用)
id UUID PRIMARY KEY DEFAULT gen_random_uuid(),
-- ユーザー名(一意制約付き)
username VARCHAR(50) NOT NULL UNIQUE,
-- メールアドレス(一意制約付き)
email VARCHAR(255) NOT NULL UNIQUE,
-- パスワードハッシュ
password_hash VARCHAR(255) NOT NULL,
-- プロフィール情報(JSONB型)
profile JSONB DEFAULT '{}',
-- 作成日時
created_at TIMESTAMP WITH TIME ZONE DEFAULT CURRENT_TIMESTAMP,
-- 更新日時
updated_at TIMESTAMP WITH TIME ZONE DEFAULT CURRENT_TIMESTAMP
);
次に、ユーザーの投稿を保存するテーブルを作成します。このテーブルは、usersテーブルと外部キーで関連付けられます。
sql-- postsテーブルの作成
CREATE TABLE posts (
-- 主キー
id UUID PRIMARY KEY DEFAULT gen_random_uuid(),
-- 投稿者ID(外部キー制約)
user_id UUID NOT NULL REFERENCES users(id) ON DELETE CASCADE,
-- 投稿タイトル
title VARCHAR(200) NOT NULL,
-- 投稿内容
content TEXT NOT NULL,
-- タグ(配列型)
tags TEXT[] DEFAULT '{}',
-- 公開ステータス
is_published BOOLEAN DEFAULT false,
-- 作成日時
created_at TIMESTAMP WITH TIME ZONE DEFAULT CURRENT_TIMESTAMP
);
インデックスの作成
パフォーマンスを向上させるため、よく検索されるカラムにインデックスを作成します。
sql-- emailカラムにインデックス作成(ログイン処理の高速化)
CREATE INDEX idx_users_email ON users(email);
-- user_idカラムにインデックス作成(ユーザーの投稿一覧取得の高速化)
CREATE INDEX idx_posts_user_id ON posts(user_id);
-- created_atカラムにインデックス作成(新着順ソートの高速化)
CREATE INDEX idx_posts_created_at ON posts(created_at DESC);
-- JSONBのプロフィール情報にGINインデックス作成
CREATE INDEX idx_users_profile ON users USING GIN (profile);
データの挿入
実際にデータを挿入してみましょう。まずはユーザーデータからです。
sql-- ユーザーデータの挿入
INSERT INTO users (username, email, password_hash, profile) VALUES
('tanaka_taro', 'tanaka@example.com', 'hashed_password_1',
'{"age": 28, "city": "Tokyo", "interests": ["programming", "music"]}'::jsonb),
('suzuki_hanako', 'suzuki@example.com', 'hashed_password_2',
'{"age": 32, "city": "Osaka", "interests": ["design", "travel"]}'::jsonb);
次に、投稿データを挿入します。RETURNING句を使うと、挿入されたデータの ID を取得できます。
sql-- 投稿データの挿入(WITH句を使った例)
WITH user_info AS (
-- ユーザー名からIDを取得
SELECT id FROM users WHERE username = 'tanaka_taro'
)
INSERT INTO posts (user_id, title, content, tags, is_published)
SELECT
id,
'PostgreSQLの魅力',
'PostgreSQLはオープンソースで高機能なRDBMSです。',
ARRAY['PostgreSQL', 'データベース', '技術'],
true
FROM user_info
RETURNING id, title, created_at;
データの取得
様々なクエリパターンを見てみましょう。まずは基本的な SELECT 文です。
sql-- 全ユーザーの取得
SELECT id, username, email, created_at FROM users;
-- 特定のユーザーの取得
SELECT * FROM users WHERE username = 'tanaka_taro';
-- JSONBデータの検索(特定の興味を持つユーザー)
SELECT username, profile->>'city' AS city
FROM users
WHERE profile @> '{"interests": ["programming"]}'::jsonb;
次に、テーブル結合を使った複雑なクエリです。
sql-- ユーザーと投稿をJOINして取得
SELECT
u.username,
u.email,
p.title,
p.tags,
p.created_at
FROM users u
INNER JOIN posts p ON u.id = p.user_id
WHERE p.is_published = true
ORDER BY p.created_at DESC
LIMIT 10;
集計関数を使った例も見てみましょう。
sql-- ユーザーごとの投稿数を集計
SELECT
u.username,
COUNT(p.id) AS post_count,
MAX(p.created_at) AS last_post_at
FROM users u
LEFT JOIN posts p ON u.id = p.user_id
GROUP BY u.id, u.username
HAVING COUNT(p.id) > 0
ORDER BY post_count DESC;
データの更新
既存のデータを更新する方法を見ていきます。
sql-- ユーザープロフィールの更新
UPDATE users
SET
profile = profile || '{"premium": true}'::jsonb,
updated_at = CURRENT_TIMESTAMP
WHERE username = 'tanaka_taro';
-- 投稿の公開ステータスを変更
UPDATE posts
SET
is_published = true,
updated_at = CURRENT_TIMESTAMP
WHERE user_id = (SELECT id FROM users WHERE username = 'suzuki_hanako');
データの削除
外部キー制約により、ユーザーを削除すると関連する投稿も自動的に削除されます(ON DELETE CASCADE)。
sql-- 特定の投稿を削除
DELETE FROM posts WHERE title = 'テスト投稿';
-- ユーザーを削除(関連する投稿も自動削除される)
DELETE FROM users WHERE username = 'test_user';
Node.js からの接続例
実際のアプリケーション開発では、プログラミング言語から PostgreSQL に接続します。Node.js と Prisma を使った例を見てみましょう。
必要なパッケージのインストール
まず、Prisma をプロジェクトにインストールします。Prisma は、TypeScript 対応の強力な ORM です。
bash# Prismaのインストール
yarn add prisma @prisma/client
# Prismaの初期化
yarn prisma init
Prisma スキーマの定義
prisma/schema.prismaファイルに、データベーススキーマを定義します。
prisma// prisma/schema.prisma
// データベース接続設定
datasource db {
provider = "postgresql"
url = env("DATABASE_URL")
}
// Prisma Clientの設定
generator client {
provider = "prisma-client-js"
}
次に、モデル定義を追加します。これは先ほど SQL で作成したテーブルに対応します。
prisma// Userモデルの定義
model User {
id String @id @default(uuid())
username String @unique @db.VarChar(50)
email String @unique @db.VarChar(255)
passwordHash String @map("password_hash") @db.VarChar(255)
profile Json @default("{}")
createdAt DateTime @default(now()) @map("created_at")
updatedAt DateTime @default(now()) @map("updated_at")
// リレーション定義
posts Post[]
@@map("users")
}
Post モデルも定義します。
prisma// Postモデルの定義
model Post {
id String @id @default(uuid())
userId String @map("user_id")
title String @db.VarChar(200)
content String @db.Text
tags String[] @default([])
isPublished Boolean @default(false) @map("is_published")
createdAt DateTime @default(now()) @map("created_at")
// リレーション定義
user User @relation(fields: [userId], references: [id], onDelete: Cascade)
@@index([userId])
@@index([createdAt])
@@map("posts")
}
環境変数の設定
.envファイルに、データベース接続情報を記載します。
bash# .env
# PostgreSQL接続URL
# 形式: postgresql://ユーザー名:パスワード@ホスト:ポート/データベース名
DATABASE_URL="postgresql://developer:securepassword@localhost:5432/myapp"
マイグレーションの実行
Prisma スキーマをデータベースに反映します。
bash# マイグレーションファイルの生成と実行
yarn prisma migrate dev --name init
# Prisma Clientの生成
yarn prisma generate
TypeScript での CRUD 実装
実際に TypeScript コードからデータベースを操作してみます。まず、Prisma Client のインスタンスを作成します。
typescript// src/db.ts
// Prisma Clientのインポート
import { PrismaClient } from '@prisma/client';
// シングルトンインスタンスの作成
const prisma = new PrismaClient({
// ログ出力の設定
log: ['query', 'info', 'warn', 'error'],
});
export default prisma;
次に、ユーザー作成処理を実装します。
typescript// src/services/userService.ts
import prisma from '../db';
// ユーザー作成関数
export async function createUser(data: {
username: string;
email: string;
passwordHash: string;
profile?: Record<string, any>;
}) {
try {
// トランザクション内でユーザーを作成
const user = await prisma.user.create({
data: {
username: data.username,
email: data.email,
passwordHash: data.passwordHash,
profile: data.profile || {},
},
// 返却するフィールドを指定
select: {
id: true,
username: true,
email: true,
createdAt: true,
},
});
return user;
} catch (error) {
throw new Error(`ユーザー作成エラー: ${error}`);
}
}
ユーザー検索処理も実装してみましょう。
typescript// ユーザー検索関数(複数条件)
export async function findUsers(filters: {
searchTerm?: string;
hasInterest?: string;
limit?: number;
}) {
const users = await prisma.user.findMany({
where: {
// OR条件での検索
OR: filters.searchTerm
? [
{ username: { contains: filters.searchTerm } },
{ email: { contains: filters.searchTerm } },
]
: undefined,
// JSONBフィールドの検索
profile: filters.hasInterest
? {
path: ['interests'],
array_contains: filters.hasInterest,
}
: undefined,
},
// リレーションデータも含める
include: {
posts: {
where: { isPublished: true },
orderBy: { createdAt: 'desc' },
take: 5,
},
},
take: filters.limit || 10,
});
return users;
}
パフォーマンスチューニングの実例
実際のアプリケーション運用では、パフォーマンスの最適化が重要になります。
スロークエリの特定
まず、どのクエリが遅いのかを特定する必要があります。EXPLAIN ANALYZEコマンドを使いましょう。
sql-- クエリの実行計画と実行時間を確認
EXPLAIN ANALYZE
SELECT
u.username,
COUNT(p.id) AS post_count
FROM users u
LEFT JOIN posts p ON u.id = p.user_id
GROUP BY u.id, u.username;
このコマンドを実行すると、以下のような情報が得られます。
text-- 実行結果の例
GroupAggregate (cost=15.23..18.45 rows=100 width=42) (actual time=0.123..0.456 rows=2 loops=1)
Group Key: u.id
-> Hash Right Join (cost=15.23..16.89 rows=200 width=42) (actual time=0.089..0.234 rows=2 loops=1)
...
Planning Time: 0.234 ms
Execution Time: 0.567 ms
インデックス最適化の判断
actual timeが大きい場合、インデックスの追加を検討します。
sql-- インデックスの使用状況を確認
SELECT
schemaname,
tablename,
indexname,
idx_scan AS index_scans,
idx_tup_read AS tuples_read,
idx_tup_fetch AS tuples_fetched
FROM pg_stat_user_indexes
ORDER BY idx_scan DESC;
まとめ
本記事では、PostgreSQL の基本から実践的な活用方法まで、幅広く解説してきました。改めて重要なポイントをまとめておきましょう。
PostgreSQL の強み オープンソースで完全無料でありながら、ACID 特性の完全サポート、MVCC による高い同時実行性、豊富なデータ型と JSON 対応、拡張可能なアーキテクチャなど、商用データベースに匹敵する機能を備えています。
2025 年の最新動向 パフォーマンスの大幅な向上、AI 分野でのベクトル検索統合、クラウドネイティブ対応の強化など、時代のニーズに合わせて進化を続けているのが PostgreSQL の魅力です。
実践での活用 Docker を使った環境構築、Prisma などの ORM との組み合わせ、適切なインデックス設計など、実際の開発現場で役立つ知識も身につけられたのではないでしょうか。
データベース選定に迷っている方、新しい技術を学びたい方にとって、PostgreSQL は非常に優れた選択肢と言えるでしょう。豊富なドキュメントと活発なコミュニティがあるため、学習やトラブルシューティングもスムーズに進められます。
ぜひ、本記事を参考に、PostgreSQL を使った開発にチャレンジしてみてください。データベースの世界が、より身近で楽しいものになるはずです。
関連リンク
articleHaystack で最小の検索 QA を作る:Retriever + Reader の 30 分ハンズオン
articleJest のフレークテスト撲滅作戦:重試行・乱数固定・リトライ設計の実務
articleGitHub Copilot セキュア運用チェックリスト:権限・ポリシー・ログ・教育の定着
articleGrok で社内 FAQ ボット:ナレッジ連携・権限制御・改善サイクル
articleGitHub Actions ランナーのオートスケール運用:Kubernetes/actions-runner-controller 実践
articleClips AI で書き出しが止まる時の原因切り分け:メモリ不足・コーデック・権限
blogiPhone 17シリーズの発表!全モデルiPhone 16から進化したポイントを見やすく整理
blogGoogleストアから訂正案内!Pixel 10ポイント有効期限「1年」表示は誤りだった
blog【2025年8月】Googleストア「ストアポイント」は1年表記はミス?2年ルールとの整合性を検証
blogGoogleストアの注文キャンセルはなぜ起きる?Pixel 10購入前に知るべき注意点
blogPixcel 10シリーズの発表!全モデル Pixcel 9 から進化したポイントを見やすく整理
blogフロントエンドエンジニアの成長戦略:コーチングで最速スキルアップする方法
review今の自分に満足していますか?『持たざる者の逆襲 まだ何者でもない君へ』溝口勇児
reviewついに語られた業界の裏側!『フジテレビの正体』堀江貴文が描くテレビ局の本当の姿
review愛する勇気を持てば人生が変わる!『幸せになる勇気』岸見一郎・古賀史健のアドラー実践編で真の幸福を手に入れる
review週末を変えれば年収も変わる!『世界の一流は「休日」に何をしているのか』越川慎司の一流週末メソッド
review新しい自分に会いに行こう!『自分の変え方』村岡大樹の認知科学コーチングで人生リセット
review科学革命から AI 時代へ!『サピエンス全史 下巻』ユヴァル・ノア・ハラリが予見する人類の未来