link もっと前
   2020年 10月 22日 -
      2020年 10月 13日  
link もっと後

link 未来から過去へ表示(*)
link 過去から未来へ表示

2020年 10月 21日

link permalink

link 編集する

テスラはバッテリーも作ります

【速報】テスラ「バッテリー・デー」のポイントを解説 - EVsmart ブログ を読んで。

約 1か月前のニュースですが「電池は自分で作るんで!さよなら!!」と鮮やかにポイ捨てされたパナソニックさん。

一緒に 5000億の工場(ギガファクトリー 1)を作り始めた(※1)かと思いきや、投資回収どころか、工場完成してないのに縁切り宣言を始める辺り、テスラは気が短すぎます。この決断スピードには、パナソニックはとても付いていけないでしょう。

今だから思いますが、ギガファクトリー 1 はうまく(?)できていて、セル:パナソニック、アセンブリ:テスラの分担となっていますので、テスラは離脱してもほぼ損害がありません。テスラは最初からバッテリー自社生産を狙っていたのでは?とすら感じます。

いずれにせよ困るのはパナソニックで、テスラに離脱されると、大量の 2170 セル生産能力が余ります(※2)。18650 に転換してもテスラ並みの需要を持つ顧客はいるでしょうか?

(※1)ギガファクトリー 1 は合弁で建てているので、パナソニックとテスラの負担割合はわかりません。さすがにゼロってことはないでしょう。

(※2)ギガファクトリー 1 は、テスラ専用の 2170(直径 21mm x 高さ 70mm)という微妙にでかいバッテリーセルを作っており、標準的な 18650(18mm x 65.0mm)セル使う機器には使いまわし効かないように見えます。

三洋に続くパナソニック爆死案件なのか?

5年位前にギガファクトリー 1 のニュースを見たときは「テスラと組むなんて、パナソニックも変わったなあ〜」なんて感動しました。パナソニックの社運を賭けた投資、なんてニュースも目にしたものです。

ぼーっとしているとテスラに置いて行かれ、数年後にはギガファクトリー 1 が、パナソニックの大型失敗案件、砺波 CCD(1000億)、尼崎プラズマ(4000億?)、三洋合併(6000億円?)にランクインしてしまいそうです。

完全にテスラに寄りかかって、何も考えてないパナソニックが悪い、ダシにされて当然だろ?っていわれたら、何も言い返せないですが、さすがに合弁作ってハイさようならは、ご無体すぎて可哀想ですね……。

メモ: 技術系の話は Facebook から転記しておくことにした。加筆修正。

[編集者: すずき]
[更新: 2020年 11月 1日 18:03]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2020年 10月 18日

link permalink

link 編集する

Zephyr OS で遊ぼう その 27 - SMP 対応、デグレードの修正

目次: Zephyr を調べる - まとめリンク

前回はリグレッションテストの実行環境を整備しました。今回はリグレッションテストで見つけたバグを修正します。

バグその 1、割り込みハンドラ判定関数

テスト tests/kernel/smp/kernel.multiprocessing.smp が失敗しています。

リグレッションテストのエラー、arch_is_in_isr()
ASSERTION FAIL [!arch_is_in_isr()] @ ZEPHYR_BASE/kernel/sched.c:1209

テスト対象の arch_is_in_isr() の実装を見ると、シングルコアを前提とした実装になっています。

割り込みハンドラ判定関数の修正

// zephyr/arch/riscv/include/kernel_arch_func.h

static inline bool arch_is_in_isr(void)
{
	return _kernel.cpus[0].nested != 0U;    //★シングルコア前提になっている★
}


// (修正後)

static inline bool arch_is_in_isr(void)
{
	return arch_curr_cpu()->nested != 0U;
}

直し方は arch_curr_cpu() に置き換えるだけで良さそうです。

バグその 2、IPI のテスト用コンフィグへの対応

他のテストでは sched_ipi_has_called が 0 のままらしく、怒られています。

リグレッションテストのエラー、sched_ipi_has_called
Assertion failed at ZEPHYR_BASE/tests/kernel/smp/src/main.c:602: test_smp_ipi: (sched_ipi_has_called != 0 is false)

テスト対象の sched_ipi_has_called をカウントアップする処理は下記のとおりです。

sched_ipi_has_called の実装箇所

// zephyr/kernel/sched.c

#ifdef CONFIG_SMP
void z_sched_ipi(void)
{
	/* NOTE: When adding code to this, make sure this is called
	 * at appropriate location when !CONFIG_SCHED_IPI_SUPPORTED.
	 */
#ifdef CONFIG_TRACE_SCHED_IPI
	z_trace_sched_ipi();
#endif
}


// zephyr/tests/kernel/smp/src/main.c

#ifdef CONFIG_TRACE_SCHED_IPI
/* global variable for testing send IPI */
static volatile int sched_ipi_has_called;

void z_trace_sched_ipi(void)
{
	sched_ipi_has_called++;
}

コンフィグ CONFIG_TRACE_SCHED_IPI が有効になっているときは、カーネルが z_trace_sched_ipi() を呼び出します。テストでは CONFIG_TRACE_SCHED_IPI を有効にするとともに、この関数を定義して、カーネルから正常にコールバックされるかどうかを見ているようです。

以前(2020年 10月 16日の日記参照)、IPI のハンドラを実装した際にコメントアウトしてくれ、と言っていた部分がありました。あの部分が役に立ちます。

IPI ハンドラから z_sched_ipi() を呼ぶ

// zephyr/drivers/timer/riscv_machine_timer.c

#ifdef CONFIG_SMP
void z_riscv_sched_ipi(void);

static void soft_isr(const void *arg)
	volatile uint32_t *r = (uint32_t *)RISCV_MSIP;

	ARG_UNUSED(arg);

	*r = 0;
	z_riscv_sched_ipi();    //★この行を足す★

#endif


// zephyr/arch/riscv/core/cpu_smp.c

#ifdef CONFIG_SMP
void z_riscv_sched_ipi(void)
	z_sched_ipi();

#endif

本当は直接 z_sched_ipi() を呼べば良いんですが、drivers 以下のソースコードからは z_sched_ipi() を呼ばない方が良さそう(関数プロトタイプが見えない)だったので、arch/riscv を経由させる変な実装になっています。どう実装するのが正しいんでしょうねえ?

これで SMP 系のテストを通過しました。良かった良かった。

[編集者: すずき]
[更新: 2020年 10月 18日 04:43]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2020年 10月 17日

link permalink

link 編集する

Zephyr OS で遊ぼう その 26 - SMP 対応、リグレッションテストの準備

目次: Zephyr を調べる - まとめリンク

前回は SMP に対応しました。今回はリグレッションテストを行う準備をします。

リグレッションテストの方法

Zephyr には sanitycheck というツールが用意されています。テストレポートやテスト用バイナリが生成されるので、Zephyr のトップディレクトリではなく、空ディレクトリを作ってから実行すると良いです。オプション -p でテストしたいプラットフォームを指定します。

sanitycheck の実行
$ mkdir __tmp
$ cd __tmp

$ sanitycheck -p qemu_riscv32

INFO    - JOBS: 16
INFO    - Building initial testcase list...
INFO    - 928 test configurations selected, 752 configurations discarded due to filters.
INFO    - Adding tasks to the queue...

...

いちいち sanitycheck を全部実行するとかなり時間が掛かります。テストにはタグが付いていて、sanitycheck はオプション -t で特定のタグが付いたテストのみを実行できます。便利ですね。

タグはどこから来ているかというと tests ディレクトリの下に存在する testcase.yaml というファイルに書いてあります。

テストのタグ

// zephyr/kernel/smp/testcase.yaml

tests:
  kernel.multiprocessing.smp:
    tags: smp    //★これがタグ★
    filter: (CONFIG_MP_NUM_CPUS > 1)    //★フィルタ、この条件が真でないとテストがスキップされる★

SMP 系のテストには smp というタグが付いているので、-t smp と指定します。

sanitycheck の実行(SMP 系)、スキップされる
$ sanitycheck -p qemu_riscv32 -t smp

INFO    - JOBS: 16
INFO    - Building initial testcase list...
INFO    - 928 test configurations selected, 925 configurations discarded due to filters.
INFO    - Adding tasks to the queue...
INFO    - Total complete:    3/   3  100%  skipped:    3, failed:    0
INFO    - 0 of 0 tests passed (0.00%), 0 failed, 928 skipped with 0 warnings in 1.95 seconds
INFO    - In total 0 test cases were executed on 1 out of total 292 platforms (0.34%)
INFO    - 0 tests executed on platforms, 0 tests were only built.

残念ながらテストは全てスキップされてしまいます。原因は qemu_riscv32 ボードは SMP に対応していない(CONFIG_SMP を select しない)ため、testcase.yaml に書かれたフィルタに引っかかって除外されるからです。

俺の作ったボードはどこ行った?

先日作成した qemu_rv32_virt ボードならば CONFIG_SMP が有効なので、テストが実行されるはずです。

sanitycheck の実行(SMP 系)、実行されない
$ sanitycheck -p qemu_rv32_virt -t smp

INFO    - JOBS: 16
INFO    - Building initial testcase list...
INFO    - 0 test configurations selected, 0 configurations discarded due to filters.
INFO    - Adding tasks to the queue...

INFO    - 0 of 0 tests passed (0.00%), 0 failed, 0 skipped with 0 warnings in 0.65 seconds
INFO    - In total 0 test cases were executed on 0 out of total 291 platforms (0.00%)
INFO    - 0 tests executed on platforms, 0 tests were only built.

ダメですね。こういうときは既存のボードと見比べて差分を見るとわかりやすいです。どうやら board.cmake, qemu_rv32_virt.yaml を作らないと、ボードが認識されないようです。

sanitycheck の実行に必要なファイルを追加
# zephyr/boards/riscv/qemu_rv32_virt/board.cmake

# SPDX-License-Identifier: Apache-2.0

set(EMU_PLATFORM qemu)

set(QEMU_binary_suffix riscv32)ARCH riscv32)
ARCH
  -nographic
  -machine virt
  -cpu rv32
  -bios none
  )
board_set_debugger_ifnset(qemu)


// zephyr/boards/riscv/qemu_rv32_virt/qemu_rv32_virt.yaml

identifier: qemu_rv32_virt
name: QEMU RISCV32 virt target
type: qemu
simulation: qemu
arch: riscv32
ram: 256
toolchain:
  - zephyr
  - xtools
testing:
  default: true
  ignore_tags:
    - net
    - bluetooth

もう一度実行します。

sanitycheck の実行(SMP 系)、実行できた

$ sanitycheck -p qemu_rv32_virt -t smp

INFO    - JOBS: 16
INFO    - Building initial testcase list...
INFO    - 928 test configurations selected, 925 configurations discarded due to filters.
INFO    - Adding tasks to the queue...

ERROR   - qemu_rv32_virt            tests/kernel/smp/kernel.multiprocessing.smp        FAILED: Timeout
ERROR   - see: zephyr/__tmp/sanity-out/qemu_rv32_virt/tests/kernel/smp/kernel.multiprocessing.smp/handler.log
INFO    - Total complete:    1/   3  33%  skipped:    0, failed:    1
ERROR   - qemu_rv32_virt            tests/kernel/spinlock/kernel.multiprocessing.spinlock FAILED: Failed
ERROR   - see: zephyr/__tmp/sanity-out/qemu_rv32_virt/tests/kernel/spinlock/kernel.multiprocessing.spinlock/handler.log
INFO    - Total complete:    3/   3  100%  skipped:    0, failed:    2
INFO    - 1 of 3 tests passed (33.33%), 2 failed, 925 skipped with 0 warnings in 72.61 seconds
INFO    - In total 13 test cases were executed on 1 out of total 292 platforms (0.34%)
INFO    - 2 tests executed on platforms, 1 tests were only built.

いくつかのテストが FAILED している、すなわちデグレードしていることを示していますが、ひとまずテストは実行できました。次回はデグレードした箇所を直します。

[編集者: すずき]
[更新: 2020年 10月 18日 03:24]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2020年 10月 16日

link permalink

link 編集する

Zephyr OS で遊ぼう その 25 - SMP 対応 CPU コア数 4、IPI の実装

目次: Zephyr を調べる - まとめリンク

前回はマルチコアのブート処理を実装しました。今回は IPI (Inter-Processor Interrupt、プロセッサ間割り込み) を実装します。長きに渡った SMP 対応もようやく終盤です。

IPI とは

IPI とは Inter-Processor Interrupt、プロセッサ間割り込みのことで、SMP の核となる機能です。プロセッサ間で何かイベントを伝えたい(今回の場合はスレッドスケジューラを動かしてほしい)ときに IPI を発生させます。

RISC-V Privilege の場合、IPI を発生させるには CLINT を使います。CLINT の msip レジスタの最下位ビットは、それぞれの HART の mip レジスタの MSIP ビットに繋がっています。平たく言えば msip レジスタに 1 を書き込むと他の HART にソフトウェア割り込みが発生する仕組みです。

CLINT はタイマードライバの実装のときに出てきました(2020年 10月 14日の日記参照)。IPI の実装は、他アーキテクチャだと zephyr/arch/*/core の下に実装していることが多いですが、RISC-V の場合はタイマードライバ zephyr/drivers/timer/riscv_machine_timer.c に実装すると早いです。このやり方で合っているのかはちょっとわかりません。割り込みコントローラとして新たに実装した方が筋が良さそうではあります。

IPI 発生側の実装

IPI の実装を発生させる側と受け取る側に分けて説明します。

IPI 発生側の実装 (arch_sched_ipi)

// zephyr/drivers/timer/riscv_machine_timer.c

#define RISCV_MSIP_OTHER(id) (RISCV_MSIP_BASE + (uintptr_t)(id) * 4)
#define RISCV_MSIP     RISCV_MSIP_OTHER(z_riscv_hart_id())

...

#ifdef CONFIG_SMP
void arch_sched_ipi(void)
{
	uint32_t id = z_riscv_hart_id();

	for (int i = 0; i < CONFIG_MP_NUM_CPUS; i++) {
		volatile uint32_t *r = (uint32_t *)RISCV_MSIP_OTHER(i);

		if (i == id)
			continue;    //★自分自身には割り込みを発生させない★

		*r = 1;
	}
}

...

発生させる側の実装は arch_sched_ipi() 関数を定義して、自分以外の HART に割り込みを発生させます。シンプルで良いですね。

IPI を発生させる処理も確認します。何箇所かありますが、短めのものを例として挙げます。

IPI 発生側の実装 (スケジューラ)

// zephyr/kernel/sched.c

static void ready_thread(struct k_thread *thread)
{
	if (z_is_thread_ready(thread)) {
		sys_trace_thread_ready(thread);
		_priq_run_add(&_kernel.ready_q.runq, thread);
		z_mark_thread_as_queued(thread);
		update_cache(0);
#if defined(CONFIG_SMP) &&  defined(CONFIG_SCHED_IPI_SUPPORTED)
		arch_sched_ipi();    //★ここで呼ばれている★
#endif
	}
}

コンフィグ CONFIG_SMP は既に有効にしていますが、それ以外にも CONFIG_SCHED_IPI_SUPPORTED を有効にする必要があるようです。

IPI のサポートを追加する

// zephyr/drivers/timer/Kconfig

config RISCV_MACHINE_TIMER
	bool "RISCV Machine Timer"
	depends on SOC_FAMILY_RISCV_PRIVILEGE
	select TICKLESS_CAPABLE
	select SCHED_IPI_SUPPORTED    #★この行を足す★
	help
	  This module implements a kernel device driver for the generic RISCV machine
	  timer driver. It provides the standard "system clock driver" interfaces.

今回 IPI の機構を実装したのはタイマードライバですので、タイマーの Kconfig に追加しています。

IPI 受信側の実装

IPI を受け取る側の実装です。マスターコアとスレーブコアで呼ばれる関数が違う点は少しややこしいですが、基本的にやることは一緒です。前回(2020年 10月 10日の日記参照)、空関数で実装した smp_timer_init() を真面目に実装するときが来ました。

IPI 受信側の実装(割り込みハンドラ)
 
#ifdef CONFIG_SMP
void z_riscv_sched_ipi(void);

static void soft_isr(const void *arg)
{
	volatile uint32_t *r = (uint32_t *)RISCV_MSIP;

	ARG_UNUSED(arg);

	*r = 0;                 //★ソフトウェア割り込みをクリア★
	z_riscv_sched_ipi();    //★IPI テスト用の関数(後日に説明予定)今はリンクエラーになるはずなので、コメントアウトして OK★
}
#endif

//★マスターコア用のタイマー初期化関数★
int z_clock_driver_init(const struct device *device)
{
	ARG_UNUSED(device);

	IRQ_CONNECT(RISCV_MACHINE_TIMER_IRQ, 0, timer_isr, NULL, 0);
	last_count = mtime();
	set_mtimecmp(last_count + CYC_PER_TICK);
	irq_enable(RISCV_MACHINE_TIMER_IRQ);

#ifdef CONFIG_SMP
	IRQ_CONNECT(RISCV_MACHINE_SOFT_IRQ, 0, soft_isr, NULL, 0);    //★ソフトウェア割り込みの割り込みハンドラを設定する★
	irq_enable(RISCV_MACHINE_SOFT_IRQ);    //★ソフトウェア割り込み有効★
#endif

	return 0;
}

...

//★スレーブコア用のタイマー初期化関数★
//★マスターコアが割り込みハンドラの設定をするので、割り込みを有効にするだけに留める★
void smp_timer_init(void)
{
	last_count = mtime();
	set_mtimecmp(last_count + CYC_PER_TICK);
	irq_enable(RISCV_MACHINE_TIMER_IRQ);
	irq_enable(RISCV_MACHINE_SOFT_IRQ);
}
#endif /* CONFIG_SMP */

割り込みを有効にして、ソフトウェア割り込みハンドラで CLINT の msip レジスタをクリアします。msip のクリアを忘れると割り込みハンドラが終わった直後、またすぐソフトウェア割り込みが入って、ハンドラが呼ばれて、割り込みが入って、ハンドラが呼ばれて、、、を繰り返してしまい処理が先に進まなくなって、ハングします。

動作確認

前回作成した環境を流用して動作確認します。

IPI 受信側の実装(割り込みハンドラ)
$ ninja run 

[0/1] To exit from QEMU enter: 'CTRL+a, x'[QEMU] CPU: riscv32
*** Booting Zephyr OS build zephyr-v2.4.0-546-g720718653f92  ***
1: thread_a: Hello World from QEMU RV32 virt board!
2: thread_b: Hello World from QEMU RV32 virt board!
0: thread_a: Hello World from QEMU RV32 virt board!
2: thread_b: Hello World from QEMU RV32 virt board!
1: thread_a: Hello World from QEMU RV32 virt board!
3: thread_b: Hello World from QEMU RV32 virt board!
1: thread_a: Hello World from QEMU RV32 virt board!

...

やった!動きました。スレッドが HART 0 だけでなく、別の HART でも実行されている様子がわかります。

リグレッションテストについては、また次回。

[編集者: すずき]
[更新: 2020年 10月 18日 03:22]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2020年 10月 15日

link permalink

link 編集する

Zephyr OS で遊ぼう その 24 - SMP 対応 CPU コア数 4、マルチコアブート

目次: Zephyr を調べる - まとめリンク

CONFIG_SMP 有効、1コア、HART ID != 0 の動作確認をしました。以前書いたとおり、SMP 対応は下記の手順で進めていますので、再掲します。

  • SMP の前提条件、新しいコンテキストスイッチ方式に対応する(CONFIG_USE_SWITCH, CONFIG_USE_SWITCH_SUPPORTED)
  • SMP に対応する(CONFIG_SMP)、ただし CPU コア数は 1
  • 先頭ではないコア(mhartid != 0)で動作させる、ただし CPU コア数は 1
  • (今ここ)CPU コア数を 1以上にする(CONFIG_SMP)

現在 3番目の項目が終わったところです。いよいよ最後です。SMP 対応の本丸である、マルチコアブート、IPI の対応を進めます。

マルチコアブート(マスター側)

前回(2020年 10月 10日の日記参照)、空関数で実装した arch_start_cpu() を真面目に実装するときが来ました。HART 0 をマスターコア、それ以外をスレーブコアとします。マスターコアは arch_start_cpu() を呼びスレーブコアを 1つずつ起床します。

マルチコアブート(マスター側)、arch_start_cpu() の実装

// zephyr/kernel/smp.c

void z_smp_init(void)
{
	(void)atomic_clear(&start_flag);

#if defined(CONFIG_SMP) && (CONFIG_MP_NUM_CPUS > 1)
	for (int i = 1; i < CONFIG_MP_NUM_CPUS; i++) {
		arch_start_cpu(i, z_interrupt_stacks[i], CONFIG_ISR_STACK_SIZE,
			       smp_init_top, &start_flag);    //★スレーブコアの数だけ arch_start_cpu() を呼ぶ★
	}
#endif

	(void)atomic_set(&start_flag, 1);
}


// zephyr/arch/riscv/core/cpu_smp.c

static volatile struct {
	arch_cpustart_t fn;
	void *arg;
} riscv_cpu_cfg[CONFIG_MP_NUM_CPUS];

volatile uintptr_t riscv_init_flag;
volatile void *riscv_init_sp;

//★マスターコアが実行★
void arch_start_cpu(int cpu_num, k_thread_stack_t *stack, int sz,
		    arch_cpustart_t fn, void *arg)
{
	riscv_cpu_cfg[cpu_num].fn = fn;
	riscv_cpu_cfg[cpu_num].arg = arg;

	/* Signal to slave core with initial sp. */
	riscv_init_sp = Z_THREAD_STACK_BUFFER(stack) + sz;    //★スタックポインタの初期値★
	riscv_init_flag = cpu_num;                            //★スレーブコアを起床★

	/* Wait for slave core */
	while (riscv_init_flag == cpu_num) {    //★スレーブコアが起床するまでビジーウェイト★
		;
	}
}

引数の意味は CPU 番号 cpu_num、スタックの先頭アドレス stack 、スタックのサイズ sz、スレーブコアが実行する関数のポインタ fn、関数の引数 arg です。fn と arg は後でスレーブコアが使うので配列 riscv_cpu_cfg[] に保存します。

スタックポインタと CPU 番号はスレーブコアのブート部分で参照するので、グローバル変数に保存します。riscv_init_flag, riscv_init_sp は配列にしなくても上書きされる心配はありません。マスターコアはスレーブコアを一度に 1コアずつ起こすように実装するので、複数のスレーブコアが同時に同じスタックを使って異常動作する事態は発生し得ないからです。スレーブコア側の実装も見ていただければわかるはず、です。

マルチコアブート(スレーブ側)

リセット後、スレーブコアは一度に全コアが起動します。ブートコードの途中で、マスターコアから設定されるフラグを待つように実装します。下記コードでいえば boot_slave_core のところです

マルチコアブート(スレーブ側)、ブートコードの実装

SECTION_FUNC(TEXT, __initialize)
	/*
	 * This will boot master core, just halt other cores.
	 * Note: need to be updated for complete SMP support
	 */
	csrr a0, mhartid
	beqz a0, boot_master_core    //★HART 0 はマスターコア★

	li a1, CONFIG_MP_NUM_CPUS    //★CONFIG_MP_NUM_CPUS より小さい HART ID ならスレーブコア★
	blt a0, a1, boot_slave_core

loop_slave_core:    //★CONFIG_MP_NUM_CPUS 以上の HART ID があったら、wfi でスリープ状態にさせる★
	wfi
	j loop_slave_core
 
boot_slave_core:
	/* Wait for signal from master core */
	la t0, riscv_init_flag
	RV_OP_LOADREG t1, (t0)
	bne a0, t1, boot_slave_core    //★riscv_init_flag に自分の HART ID が設定されるまで待つ★

	/* Setup stack */
	la t1, riscv_init_sp
	RV_OP_LOADREG sp, (t1)     //★スタックポインタ初期化★

	/* Notify to master core */
	RV_OP_STOREREG x0, (t0)    //★マスターコアにブート完了を知らせる★

	j z_riscv_slave_start

...


// zephyr/arch/riscv/core/cpu_smp.c

//★スレーブコアが実行★
void z_riscv_slave_start(int cpu_num)
{
#if defined(CONFIG_RISCV_SOC_INTERRUPT_INIT)
	soc_interrupt_init();
#endif

	riscv_cpu_cfg[cpu_num].fn(riscv_cpu_cfg[cpu_num].arg);    //★arch_start_cpu() で指定された関数と引数★
}

スレーブコアは全てが同時に riscv_init_flag をチェックしますが、riscv_init_flag == 自身の HART ID と一致しない限り永久に待つため、flag チェック以降の処理に進むことはありません。この機構により同じスタックを 2つ以上のスレーブコアが同時に使ってしまうことを避けています。

以上で、マルチコアが動き始めました。続きは次回。

[編集者: すずき]
[更新: 2020年 10月 15日 01:49]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2020年 10月 14日

link permalink

link 編集する

Zephyr OS で遊ぼう その 23 - SMP 対応 CPU コア数 1、HART 0 以外で動かす

目次: Zephyr を調べる - まとめリンク

前回は HART 0 以外で動かす際に、動作確認が必要なので準備を行いました。今回は HART 0 以外で動かします。

実行する HART を一時的にずらす

一番簡単なやり方は、ブート時の判定条件を変えることだと思います。通常は HART ID が 0 だったら起動しますが、0 じゃない HART のときに起動するように変更します。この変更は最終的には不要なので、あとで元に戻すのを忘れないようにしてください。

変更前の実行結果

// zephyr/arch/riscv/core/reset.S

...

SECTION_FUNC(TEXT, __initialize)
	/*
	 * This will boot master core, just halt other cores.
	 * Note: need to be updated for complete SMP support
	 */
	csrr a0, mhartid
	addi a0, a0, -3    //★HART ID - 3 = 0 なら実行する、つまり HART ID 3 で実行する★
	beqz a0, boot_master_core

...

Zephyr の CPU コア数は menuconfig から変更可能です。なぜかは知りませんが、最大 4コアらしいです。

CPU 数の変更
$ ninja menuconfig

General Kernel Options  --->
  SMP Options  --->
    (4) Number of CPUs/cores

実行してみます。QEMU の -smp cpus=1 オプションを cpus=4 に変更して 4コアで実行します。

変更前の実行結果
$ qemu-system-riscv32 -nographic -machine virt -net none -chardev stdio,id=con,mux=on -serial chardev:con -mon chardev=con,mode=readline -kernel zephyr/zephyr.elf -cpu rv32 -smp cpus=4 -bios none

** Booting Zephyr OS build zephyr-v2.4.0-546-g720718653f92  ***
3: thread_a: Hello World from QEMU RV32 virt board!

HART ID は変わりました。しかしスレッド A からスレッド B に切り替わらず、ハングアップしてしまいます。原因はタイマー割り込みが HART ID 0 以外に入らないからです。Zephyr はタイマー割り込みによってカーネルの内部時間(Tick)を更新する他、割り込みを契機にコンテキストスイッチを行っています。

タイマーの SMP 対応

Zephyr では通常の定期的なタイマー割り込みと、Tickless Timer という不定期なタイマー割り込みの仕組みがあります。通常のタイマーの場合、一定時間ごとにタイマー割り込みを発生(例えば 10ms ごとなど)させ、1Tick ずつ時間を進めます。実装は単純ですが、用もなくタイマー割り込みが発生するため、消費電力や処理性能に悪影響を及ぼします。

Tickless Timer の場合、各 CPU が「最後に割り込みが発生した時刻」を記録しておいて、タイマー、タイマー以外の割り込みが発生した際に、前回の割り込みからどれだけ時間が経過したか、つまり、何 Tick 経過したか?を計算して、一気に時間を進めます。また「次のタイマー割り込みの設定」は、できるだけ遠く(現在時刻 + 1 Tick)に設定して、無用なタイマー割り込みが発生しないように工夫されています。

「最後に割り込みが発生した時刻」と「次のタイマー割り込みの設定」は CPU が割り込みを受けたタイミングによって値が変わり、全 CPU で共有する値ではありませんから、CPU ごとに専用の場所を用意する必要があります。

タイマーの SMP 対応

// zephyr/drivers/timer/riscv_machine_timer.c(変更前)

static struct k_spinlock lock;
static uint64_t last_count;

static void set_mtimecmp(uint64_t time)
{
#ifdef CONFIG_64BIT
	*(volatile uint64_t *)RISCV_MTIMECMP_BASE = time;
#else
	volatile uint32_t *r = (uint32_t *)RISCV_MTIMECMP_BASE;


// zephyr/drivers/timer/riscv_machine_timer.c(変更後)

#define RISCV_MTIMECMP (RISCV_MTIMECMP_BASE + (uintptr_t)z_riscv_hart_id() * 8)    //★「次のタイマー割り込みの設定」★
#define last_count last_count_mp[z_riscv_hart_id()]    //★「最後に割り込みが発生した時刻」★

static struct k_spinlock lock;
static uint64_t last_count_mp[CONFIG_MP_NUM_CPUS];     //★CPU の数だけ配列を確保★

static void set_mtimecmp(uint64_t time)
{
#ifdef CONFIG_64BIT
	*(volatile uint64_t *)RISCV_MTIMECMP = time;
#else
	volatile uint32_t *r = (uint32_t *)RISCV_MTIMECMP;

今回の SMP 対応では MTIMECMP レジスタの幅が 64bit であることがわかれば、動作の詳細を知らなくても読み進められると思います。

仕様が気になる場合は、SiFive Core Local Interruptor(CLINT)の仕様を参照ください。CLINT は FE310 もしくは FU540 のマニュアルに載っています。FE310 はシングルコア、FU540 はマルチコアです(FE310-G002 Manual, FU540-C000 Manual)。

効果の確認

以上の対応で HART ID 0 以外もタイマー割り込みが入るようになり、スケジューラが動作するようになったはずです。

変更後の実行結果
$ qemu-system-riscv32 -nographic -machine virt -net none -chardev stdio,id=con,mux=on -serial chardev:con -mon chardev=con,mode=readline -kernel zephyr/zephyr.elf -cpu rv32 -smp cpus=4 -bios none

** Booting Zephyr OS build zephyr-v2.4.0-546-g720718653f92  ***
3: thread_a: Hello World from QEMU RV32 virt board!
3: thread_b: Hello World from QEMU RV32 virt board!
3: thread_a: Hello World from QEMU RV32 virt board!
3: thread_b: Hello World from QEMU RV32 virt board!

...

HART ID = 3 で実行されています。やったね。以降、実行する HART を一時的にずらす変更は不要なので、元に戻すことを忘れないようにしてください。

[編集者: すずき]
[更新: 2020年 10月 14日 20:07]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2020年 10月 13日

link permalink

link 編集する

Zephyr OS で遊ぼう その 22 - SMP 対応 CPU コア数 1、HART 0 以外で動かす、動作確認環境

目次: Zephyr を調べる - まとめリンク

前回は CONFIG_SMP のビルドエラーと実行時エラーに対応しました。以前書いたとおり、SMP 対応は下記の手順で進めていますので、再掲します。

  • SMP の前提条件、新しいコンテキストスイッチ方式に対応する(CONFIG_USE_SWITCH, CONFIG_USE_SWITCH_SUPPORTED)
  • SMP に対応する(CONFIG_SMP)、ただし CPU コア数は 1
  • (今ここ)先頭ではないコア(mhartid != 0)で動作させる、ただし CPU コア数は 1
  • CPU コア数を 1以上にする(CONFIG_SMP)

前回までで 2番目の項目が終わったところです。今回はコア数を増やして先頭以外のコアで実行します。

動作確認の環境

Zephyr を書き換える前に、変更した効果が確認できる環境を作りましょう。サンプルの synchronization を少し改造して HART ID を表示します。

スレッド名を表示させる機能を加える

// zephyr/samples/synchronization/src/main.c

void helloLoop(const char *my_name,
	       struct k_sem *my_sem, struct k_sem *other_sem)
{
	const char *tname;

	while (1) {
		int id = z_riscv_hart_id();    //★HART ID を取得★

		/* take my semaphore */
		k_sem_take(my_sem, K_FOREVER);

		/* say "hello" */
		tname = k_thread_name_get(k_current_get());
		if (tname != NULL && tname[0] != '\0') {
			printk("%d: %s: Hello World from %s!\n",
				id, tname, CONFIG_BOARD);    //★HART ID を一緒に表示する★
		} else {
			printk("%d: %s: Hello World from %s!\n",
				id, my_name, CONFIG_BOARD);    //★HART ID を一緒に表示する★
		}

今回は変更してもしなくても構わないですが、カーネルコンフィグを変えると k_thread_name_get() でスレッド名が取得できるようになります。スレッドを多数作成したときに便利です。

スレッド名を表示させる設定
$ ninja menuconfig

General Kernel Options  --->
  Kernel Debugging and Metrics  --->
    [*] Thread name [EXPERIMENTAL]

動作させると下記のような表示になるはずです。

変更前の実行結果
$ mkdir build
$ cd build
$ cmake -G Ninja -DBOARD=qemu_rv32_virt ../samples/synchronization/

...

$ ninja

...

$ qemu-system-riscv32 -nographic -machine virt -net none -chardev stdio,id=con,mux=on -serial chardev:con -mon chardev=con,mode=readline -kernel zephyr/zephyr.elf -cpu rv32 -smp cpus=1 -bios none

** Booting Zephyr OS build zephyr-v2.4.0-546-g720718653f92  ***
0: thread_a: Hello World from QEMU RV32 virt board!
0: thread_b: Hello World from QEMU RV32 virt board!
0: thread_a: Hello World from QEMU RV32 virt board!
0: thread_b: Hello World from QEMU RV32 virt board!

...

HART ID = 0 で実行されていることがわかります。

続きは次回です。

[編集者: すずき]
[更新: 2020年 10月 14日 20:07]

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



link もっと前
   2020年 10月 22日 -
      2020年 10月 13日  
link もっと後

管理用メニュー

link 記事を新規作成

合計:  counter total
本日:  counter today

link About www.katsuster.net
RDF ファイル RSS 1.0
QR コード QR コード

最終更新: 11/27 00:11

カレンダー

<2020>
<<<10>>>
----123
45678910
11121314151617
18192021222324
25262728293031

最近のコメント 5件

  • link 20年09月10日
    すずき 「追加情報。最新の Debian Test...」
    (更新:10/07 16:48)
  • link 20年09月20日
    hdk 「最近は音楽聞く時やビデオ視聴時はミニコン...」
    (更新:09/24 21:43)
  • link 20年09月20日
    すずき 「ありゃー、同じ壊れ方ですね。\n新たなヘ...」
    (更新:09/24 00:23)
  • link 20年09月20日
    hdk 「うちのATH-AD300もやはり頭にプラ...」
    (更新:09/23 12:26)
  • link 20年07月10日
    すずき 「鳥のゲームは知りませんでした。色々やって...」
    (更新:08/11 18:59)

最近の記事 3件

link もっとみる
  • link 20年11月19日
    すずき 「[世界耐久選手権] WEC 2019-2020年シーズン 第 8戦...」
    (更新:11/27 00:11)
  • link 20年11月23日
    すずき 「[調子が良くない Windows 10] 最近ノート PC という...」
    (更新:11/24 01:55)
  • link 20年11月21日
    すずき 「[Zephyr のダウンロードとモジュール] 目次: Zephyr...」
    (更新:11/24 01:39)

こんてんつ

open/close wiki
open/close Java API

過去の日記

open/close 2002年
open/close 2003年
open/close 2004年
open/close 2005年
open/close 2006年
open/close 2007年
open/close 2008年
open/close 2009年
open/close 2010年
open/close 2011年
open/close 2012年
open/close 2013年
open/close 2014年
open/close 2015年
open/close 2016年
open/close 2017年
open/close 2018年
open/close 2019年
open/close 2020年
open/close 過去日記について

その他の情報

open/close アクセス統計
open/close サーバ一覧
open/close サイトの情報