Archive for the ‘IT(情報処理)’ Category



特別定額給付金で4Kテレビ(SHARP AQUOS)を購入

Monday, June 8th, 2020

新型コロナウィルス対策で配られた「特別定額給付金」でテレビを購入した。

家族みんなで給付金を出し合って、以前から欲しかった「大型」画面のテレビを購入することができた。今回購入したのは、SHARP社製の4T-C50BN1というモデル。

今回驚いたのは、ここ数年でテレビというものがすっかり変わってしまっていたこと。高解像度の大型液晶画面が登場しているのは知っていたが、想像以上にディジタル化が進んでいることには驚いた。テレビというより、テレビチューナと大型画面を付けたパソコンといったほうがしっくりくるものに変化している。

今回購入したSHARP製のテレビにはANDROID TVが搭載されている。アプリにより、NETFLIXのようなオンデマンドのテレビ番組を楽しむことができる。さらには、Googleアシスタントにより音声で指示することによりテレビを制御することもできる。感心してしまった。

アマゾン経由で税込み、配送料込みの112,768円で購入したのであるが、購入からわずか1週間しかたっていないのに、同じアマゾンで108,273円販売しているのを見かけた。家電製品の価格の変化の大きいのにも驚ろく。

とまれ、世の中の変化の速さを再確認させられたところだ。



東京都新規感染者日変化と7日移動平均 -コロナウィルスとの闘い

Saturday, June 6th, 2020

昨日(6月5日)までの東京都の公開データから新規感染者数の日変化と7日移動平均を上掲した。

上掲図では、3月1日から昨日までの日変化をプロットしている。図の作成は、東京都の公開データ(CSVデータ)からPythonを用いて作成している。Pythonスクリプトのソースを以下に添付している。

なお、図上部に、累積感染者数(Cumulative Number of Infected)として 5,3472人としているが、これは1月24日以降の累積。

Python Script source:

import matplotlib
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np
import datetime

df = pd.read_csv('https://stopcovid19.metro.tokyo.lg.jp/data/130001_tokyo_covid19_patients.csv')

tokyo_df = df[['公表_年月日', '患者_年代', '患者_性別','退院済フラグ']]
tokyo_df.columns = ['date', 'age', 'sex','recv']
tokyo_df_count = tokyo_df['date'].value_counts().sort_index(ascending=True)
df_t = pd.DataFrame(tokyo_df_count)
df_t.columns = ['infected']

dates = pd.date_range('20200124', 'today', freq='D')
df = pd.DataFrame(pd.Series(range(len(dates)), index=dates))
df.columns = ['infected']
for dates in df.index:
    str_date = dates.strftime("%Y-%m-%d") 
    try:
        df.infected[str_date] = df_t.infected[str_date]
    except:
        df.infected[str_date] = 0
#str_date='2020-05-28'
#df.infected[str_date] = 15
list_infected = df.infected.to_list()

date_index = [df.index[0].strftime('%Y-%m-%d')]
for i in range(1, len(list_infected)):
    date_index.append(df.index[i].strftime('%Y-%m-%d'))

x = pd.date_range(date_index[0], periods=len(date_index),freq='d')
y = np.array(list_infected)
y_cum = np.cumsum(y)
print('Cumulative Number of Infected= ' + str(y_cum[len(y_cum)-1]))

start_date = '2020-03-01'
i_start = df.index.get_loc(start_date)

num = 7
b = np.ones(num)/num
y2 = np.convolve(y, b, mode='same')

fig = plt.figure(figsize=(10,10))

x_d = x[i_start:]
y_o = y[i_start:]
y2_o= y2[i_start:]

ax = fig.add_subplot(2,1,1)
#ax = fig.add_axes([0,0,1,1])
ax.bar(x_d, y_o,label='raw data')
#ax.bar(x, y_cum,label='raw data')
ax.legend()
ax.grid()

ax = fig.add_subplot(2,1,2)
#ax = fig.add_axes([0,0,1,1])
ax.bar(x_d, y2_o, label='convolved')
ax.legend()
ax.grid()

plt.ylim(0, 205)
plt.show()


Nuxt: npm install からMySql-DBとの接続まで

Saturday, March 7th, 2020

Webアプリケーション作成用のフレームワークのNUXTJSに興味を持った。

このフレームワークの枠組みについて一通り理解するために、我がLinuxサーバ上にこれをインストールし、MySQL DBにアクセスし、DB上のデータをWeb上に描画するまでを実際にやってみた。

作業内容について比較的詳細にメモしておいた。
(続きを読む)



Seleniumを python と nodeで動作させてみた

Wednesday, February 19th, 2020

さまざまなWebサイトで公開される情報を「自動的に」収集・解析するWeb-Scraping技術のひとつに、Seleniumを用いる方法がある。Seleniumのフレームワークを用いると、リモートからブラウザ操作が可能になり、Web-Scrapingを効果的に行うことが期待される。

これまで、何度か、Seleniumを我が自宅サーバ上で動作可能にするようトライしたことがあるがことごとく失敗していた。

この数か月間、JupyterLab上でのプログラム開発環境を整備してきたところであるが、このプログラム環境を活用してSeleniumの動作環境を構築することを改めて試み、今回、なんとか成功した。動作環境の構築は、Python並びにJavaScript(Node)、それぞれの言語環境で行った。

このエントリーでは、Selenium動作環境の構築にかかわる、一連の手続きをメモしておいた。 (続きを読む)



JupyterLab kernel に Julia(v1.3.1) を追加

Saturday, February 8th, 2020

Jupyterlab の kernelに juliaを追加した。

以下、インストール手順並びに関連情報についてメモしておいた。
(続きを読む)