WebApp is an example of a generic web application with React and Redux.
Features
- Babel 6
- React
- React-router
- Redux
- Webpack
- Isomorphic (universal) rendering
- Hot reload (aka Hot Module Replacement) for React components, Redux reducers, Redux action creators, translated messages
- Internationalization with React-intl
- User authentication (JSON Web Token) & authorization (roles)
- REST API
- SQL ORM (PostgreSQL + Knex)
- MongoDB
- Microservice architecture
- Responsive web design
- Works both with Javascript enabled and disabled (suitable for DarkNet purposes)
- Koa
- Bunyan logging (log file rotation is built-in)
- Correctly handles Http Cookies on the server-side
- To be done: GraphQL + Relay
- To be done: native Node.js clustering
- // maybe: Protection against Cross Site Request Forgery attacks
Prerequisites:
Prerequisites for production:
Installing:
npm run install-recursive
(runsnpm install
for all subdirectories recursively)cd backend
npm run postgresql-knex-init
nano database/sql/knexfile.js
(editdatabase
,username
andpassword
)npm run postgresql-migrate
cd ..
Running in development mode:
npm run dev
- wait for it to finish the build (green stats will appear in the terminal, and it will say "Webpage server is listening at http://localhost:3004")
- go to
http://127.0.0.1:3000
Running in production mode:
npm run production
- wait a bit for Webpack to finish the build (green stats will appear in the terminal, plus some
node.js
server running commands) - go to
http://127.0.0.1:3000
One can configure this application through creation of configuration.js
file in the root folder (use configuration.defaults.js
file as a reference).
All the options set in that file will overwrite the corresponding options set in configuration.defaults.js
file.
npm run dev
After it finishes loading go to http://127.0.0.1:3000
(the web page will refresh automatically when you save your changes)
On my Windows machine in Google Chrome I get very slow Ajax requests.
That's a strange bug related to Windows and Google Chrome discussed on StackOverflow
To workaround this bug I'm using 127.0.0.1
instead of localhost
in the web browser.
The application consists of the following microservices
web-server
is the gateway (serves static files and proxies to all the other microservices)page-server
renders web pages on the server side (using react-isomorphic-render)authentication-service
handles user authentication (sign in, sign out, register) and auditing (keeps a list of user sessions and traces latest activity time)password-service
performs password hashing and checking (these operations are lengthy and CPU-intensive)user-service
provides REST Api for users (getting users, creating users, updating users)image-server
resizes uploaded images using ImageMagick and serves themlog-service
aggregates logs from all the other servicesemail-service
sends emails
The application uses Redis for storing user sessions (things like online status).
After installing Redis edit the configuration.js file accordingly
redis:
{
host : 'localhost',
port : 6379,
// password : '...' // is optional
}
To secure Redis from outside intrusion set up your operating system firewall accordingly. Also a password can be set and tunneling through an SSL proxy can be set up between the microservices. Also Redis should be run as an unprivileged redis
user.
Consul is a service discovery software used in conjunction with Nomad and Docker to run high-availability applications in production.
brew install consul
Nomad is a Docker container deployment software used in conjunction with Consul and Docker to run high-availability applications in production.
brew install nomad
Docker is a containerization software used to easily run applications in production.
Download it from the Docker website
The application should be run as an unprivileged user.
When switching to TLS will be made all cookies should be recreated ({ secure: true }
option will be set on them automatically upon Https detection when they are recreated).
This application can run in demo mode without Redis being installed.
If you want this application make use of Redis then you should install it first.
For Windows: https://github.com/MSOpenTech/redis/releases
For OS X:
brew install redis
# To have launchd start redis at login:
ln -sfv /usr/local/opt/redis/*.plist ~/Library/LaunchAgents
# Then to load redis now:
launchctl load ~/Library/LaunchAgents/homebrew.mxcl.redis.plist
and configure it in your configuration.js
file
redis:
{
host : 'localhost',
port : 6379,
password : ... // is optional
}
This application can run in demo mode without PostgreSQL being installed.
If you want this application make use of PostgreSQL then you should first install it.
For OS X:
brew install postgresql
# To have launchd start postgresql at login:
ln -sfv /usr/local/opt/postgresql/*.plist ~/Library/LaunchAgents
# Then to load postgresql now:
launchctl load ~/Library/LaunchAgents/homebrew.mxcl.postgresql.plist
# Fixes "psql: FATAL: role "postgres" does not exist"
createuser --superuser postgres
# Then you may also want to install PSequel as a GUI
# http://psequel.com/
(hypothetically MySQL and SQLite3 will also do but I haven't checked that since PostgreSQL is the most advanced open source SQL database nowadays)
To change the default PostgreSQL superuser password
sudo -u postgres psql
# or: psql postgres (for OS X)
postgres=# \password postgres
\q
Then create a new user in PostgreSQL and a new database. For example, in OS X or Linux terminal, using these commands
createuser --username=postgres --interactive USERNAME
n
n
n
createdb --username=postgres --encoding=utf8 --owner=USERNAME DATABASE_NAME --template=template0
Also install PostGIS for geospacial data support
brew install postgis
# install the database extension (requires superuser privileges)
psql --username=postgres --dbname=DATABASE_NAME
CREATE EXTENSION postgis;
\q
Then create your database/sql/knexfile.js
file
cd backend
npm run postgresql-knex-init
Then configure your database/sql/knexfile.js
file. An example of how it might look
var path = require('path')
module.exports = {
client: 'postgresql',
connection: {
database: 'webapp',
user: 'webapp',
password: 'webapp'
},
pool: {
min: 2,
max: 10
},
migrations: {
directory: path.join(__dirname, 'database/sql/migrations'),
tableName: 'knex_migrations'
}
}
Then initialize PostgreSQL database
npm run postgresql-migrate
To rollback the latest PostgreSQL migration
npm run postgresql-rollback
Or one can alternatively drop the database and create it from scratch initializing it with the command given above.
Migrations are stored in the database/sql/migrations
folder.
This application can run in demo mode without InfluxDB being installed.
InfluxDB can be used to store different kinds of stats.
(ports used: 8086, 8090, 8099)
If you want this application make use of InfluxDB then you should first install it.
For OS X:
brew install influxdb
# enable autostart
brew services start influxdb
influx
> CREATE USER "admin" WITH PASSWORD '[administrator password here]' WITH ALL PRIVILEGES
> CREATE USER "webapp" WITH PASSWORD '[webapp password here]'
> CREATE USER "telegraf" WITH PASSWORD '[telegraf password here]'
> exit
nano /usr/local/etc/influxdb.conf
# [http]
auth-enabled = true
brew services restart influxdb
Then run influx
.
CREATE DATABASE webapp
GRANT ALL ON webapp TO webapp
USE webapp
# CREATE CONTINUOUS QUERY emails_in_a_day ON webapp BEGIN SELECT mean(count) AS mean_count INTO webapp."default".downsampled_emails_sent FROM emails_sent GROUP BY time(24h) END
CREATE DATABASE telegraf
GRANT ALL ON telegraf TO telegraf
USE telegraf
CREATE RETENTION POLICY "7_days" ON telegraf DURATION 7d REPLICATION 1
CREATE RETENTION POLICY "1_month" ON telegraf DURATION 30d REPLICATION 1
CREATE RETENTION POLICY "1_year" ON telegraf DURATION 365d REPLICATION 1
CREATE RETENTION POLICY "infinite" ON telegraf DURATION INF REPLICATION 1
# To do: generate SSL certificate
#
# [http]
# https-enabled = true
# https-certificate = “/etc/ssl/influxdb.pem”
#
# [continuous_queries]
# run-interval = “1m”
For production the password is set in /opt/influxdb/current/config.toml
.
Test login
influx -username admin -password PASSWORD
> show databases
brew update
brew install telegraf
telegraf -input-filter statsd -output-filter influxdb config > /usr/local/etc/telegraf.conf
nano /usr/local/etc/telegraf.conf
brew services start telegraf
# telegraf -config /usr/local/etc/telegraf.conf
[[outputs.influxdb]]
urls = ["http://localhost:8086"]
database = "telegraf"
retention_policy = "7_days"
# create user `telegraf` in influxdb, and `telegraf` database too
username = "telegraf"
password = "PASSWORD"
[[inputs.statsd]]
## Address and port to host UDP listener on
service_address = ":8125"
## Percentiles to calculate for timing & histogram stats
percentiles = [90]
Grafana can be used for displaying data stored in InfluxDB (stats) as graphs.
Installing Grafana:
http://docs.grafana.org/installation/
createuser --username=postgres --interactive grafana
createdb --username=postgres --encoding=utf8 --owner=grafana grafana --template=template0
psql -U grafana
\password PASSWORD
\q
nano /usr/local/etc/grafana/grafana.ini
; logs = /var/log/grafana
# The http port to use
http_port = 8888
# database
type = postgres
host = 127.0.0.1:5432
name = grafana
user = grafana
password = PASSWORD
[security]
# default admin user, created on startup
admin_user = admin
# default admin password, can be changed before first start of grafana, or in profile settings
admin_password = PASSWORD
Go to localhost:8888
Setting up Grafana for InfluxDB:
http://docs.grafana.org/datasources/influxdb/
Each Http request to the server will update the user's latest activity time.
If a certain Http request is automated and shouldn't be interpreted as a user being online then this Http request URL should contain bot=✓
parameter.
This works for GET requests, and I suppose it would work for POST requests too.
In production all services can be containerized using Docker.
To build a Docker image, run this script from the directory of a service: (work in progress)
npm run docker:image
To monitor Docker containers (availability) one can use Consul.
(currently not used)
Install JDK
sudo add-apt-repository -y ppa:webupd8team/java
sudo apt-get update
sudo apt-get -y install oracle-java8-installer
Install Elasticsearch
# https://www.elastic.co/downloads/elasticsearch
wget ...
dpkg --install xxx.deb
# change cluster name
nano /etc/sysconfig/elasticsearch
sudo /bin/systemctl daemon-reload
sudo /bin/systemctl enable elasticsearch.service
sudo /bin/systemctl start elasticsearch.service
Install Kibana
wget -qO - https://packages.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb http://packages.elastic.co/kibana/4.5/debian stable main" | sudo tee -a /etc/apt/sources.list
sudo apt-get update && sudo apt-get install kibana
sudo /bin/systemctl daemon-reload
sudo /bin/systemctl enable kibana.service
Elasticsearch URL: http://localhost:9200
Kibana URL: http://localhost:5601
Monitoring:
https://github.com/lmenezes/elasticsearch-kopf
https://github.com/mobz/elasticsearch-head
nano config/elasticsearch.yml
# action.auto_create_index: false
Set up a cluster with 256 primary shards ({ settings: number_of_shards: 256 }
).
For logs: { settings: “index.codec”: “best_compression” }
Maybe later use some of these notes (work in progress):
"type":
{
// "include_in_all": false,
"_all": { "enabled": false },
"dynamic": "no"
}
PUT /my_index_v1/_alias/my_index
PUT /my_index
{
"settings": {
"analysis": {
"char_filter": {
"quotes": {
"type": "mapping",
"mappings": [
"\\u0091=>\\u0027",
"\\u0092=>\\u0027",
"\\u2018=>\\u0027",
"\\u2019=>\\u0027",
"\\u201B=>\\u0027"
]
}
},
"analyzer": {
"quotes_analyzer": {
"tokenizer": "standard",
"char_filter": [ "quotes" ],
"filter": [ "lowercase", "asciifolding" ]
}
}
}
}
}
{
"query": {
"multi_match": {
"type": "most_fields",
"query": "está loca",
"fields": [ "title", "title.folded" ]
}
}
}
{
"settings": {
"analysis": {
"filter": {
"nfkc_normalizer": {
"type": "icu_normalizer",
"name": "nfkc_cf"
}
},
"analyzer": {
"my_normalizer": {
"tokenizer": "icu_tokenizer",
"filter": [ "nfkc_normalizer" ]
}
}
}
}
}
{
"settings": {
"analysis": {
"analyzer": {
"my_lowercaser": {
"tokenizer": "icu_tokenizer",
"filter": [ "icu_normalizer" ]
}
}
}
}
}
# The icu_normalizer defaults to the nfkc_cf form.
# "char_filter": [ "icu_normalizer" ]
{
"settings": {
"analysis": {
"analyzer": {
"my_folder": {
"tokenizer": "icu_tokenizer",
"filter": [ "icu_folding" ]
}
}
}
}
}
{
"settings": {
"analysis": {
"analyzer": {
"ducet_sort": {
"tokenizer": "keyword",
"filter": [ "icu_collation" ]
}
}
}
}
}
"content": {
"type": "string",
"index_options": "freqs"
}
./bin/plugin -install elasticsearch/elasticsearch-analysis-icu/$VERSION
# The current $VERSION can be found at https://github.com/elasticsearch/elasticsearch-analysis-icu.
...
проверить, что snackbar показывается выше диалоговых окон (чтобы показывать ошибки форм даже в диалоговых окнах).
в конфиге в http добавить флаг secure: true
из конфига брать цветовую схему, название сайта, description, favicon URL
в realtime service периодически проверять соединения на is valid access token по socket.access_token_id (например, раз в 15 минут, только для каждого, а не для всех сразу, чтобы распределять нагрузку равномерно) если access_token_id не valid, то делать disconnect. но будет потом reconnect, так что сразу при connect проверять access_token_id на valid.
fluentd
sudo usermod -G docker -a username
SVG previews:
https://github.com/technopagan/sqip
The following command will generate a suitable example CA CSR, certificate, and key:
cfssl print-defaults csr | cfssl gencert -initca - | cfssljson -bare ca
{ "CN": "global.nomad", "hosts": [ "server.global.nomad", "client.global.nomad", "localhost" ] }
cfssl gencert -ca ca.pem -ca-key ca-key.pem *.json | cfssljson -bare nomad
настроить telemetry для nomad и statsd https://www.nomadproject.io/docs/agent/telemetry.html
при создании notification'а - проверять, не заблокирован ли пользователь.
не разрешать отправку сообщений заблокированному пользователю (как на клиенте, так и на сервере).
помечать точкой текущий refreshToken в списке access tokens
для малых экранов не показывать имя пользователя на background в poster profile, а просто показывать аватар, и вместо имени будут выводиться: иконка сообщений, иконка уведомлений.
Для location выводить значок, как на карте, и можно даже отправлять ссылкой на Яндекс.Карты при нажатии.
в профиле: кастомные иконки ссылок (autodetect) для твитора, инстаграма, vk, фейсбука.
сделать добавление "ссылок" (твиторы, и т.п.)
цвета:
цвет текста на фоне обводка текста на фоне обводка картинки
Не создавать адресное имя при регистрации
"цвет фона" и "цвет текста на фоне" выделить в modal "Палитра", у каждого - галки.
после того, как стилизуется latest-activity на всех размерах, откомментировать:
{/* poster.user && !this.can_edit_profile() && this.render_online_status() */}
сделать в профиле кнопку "войти" для админа, и токен будет выдаваться с флагом bot, который не будет обновлять latest access time, а токен самого админа будет пермещён в cookie authentication.original, которая будет восстанавливаться оттуда при sign-out (на сервере, видимо, это всё)
сделать настройку цвета имени справа от аватара (цвет текста на фоне)
когда "нет постов", "нет товаров", и т.п. — писать это в специальной .content-section
у "онлайн" не ставить часы
Добавить альбомы с фотографиями
кнопки "заблокировать", "разблокировать" (постера) — будут выпадающими, как фейсбуке, по нажатию на "..."
В nginx считать кол-во гетов картинок и трафик на картинках (чтобы потом смотреть, сколько будет стоить хостинг на amazon s3 - график выводить в Grafana)
Обсуждения добавить.
сделать иконки для Posts и Subscriptions (на малых экранах - только иконки)
сделать кнопку subscribe, добавляющую в таблицу subscriptions, и ещё выводить в профиле:
posts | subscriptions (chronologically, starting newest) | у магазина — товары | у магазина — отзывы | у магазина и сообщества — обсуждения
в будущем, когда будет совсем хайлоад, переделать ленту (feed) — она будет ограничена месяцем, и туда будут писаться id при создании записей (помечаться удалёнными - при удалении), также можно type, poster_id, reposted_poster_id, если это репост, для фильтрования + timestamp
ограничить количество фотографий для товара
рядом с кнопкой "купить" - кнопку "задать вопрос"
убрать type у картинок: все хранить в одном месте (проверяя на уже существующесть)
consul update container
в профиле сделать раздел links (твиттеры, вконтакты, и т.п.: "I'm on etsy.com, vk.com, ...")
переключатель языка сделать в настройки пользователю (убрать из футера), для гостей сделать переключатель языка рядом с кнопкой Войти (убрать из футера).
у каждого пользователя будет activity_stream, в котором: лайки, каменты, подписки.
при get_poster всегда доставлять poster_users (с постерами), джойном, если это get профиля
can edit poster - переделать второе условие на poster_users
can_edit_profile в профиле написать нормально (и проверить)
join poster_users
сделать reserved_aliases = ['not-found', ...], и камент в routes
в профиле сделать кнопку "настройки" с modal и там alias
hint для пароля сделать (зачем его вообще задавать)
при создании пользователя - создавать постера, при создании постера — создавать stream
создать другого пользователя (двоих)
проверить блокировку и разблокировку другого пользователя
смену alias'а сделать в настройках профиля, над карточкой, показывать при нажатии на "правку", и перенести description из 'settings' (сделать отдельным компонентом всё это)
при постинге сообщения - добавление его в stream беседы, потом выбор всех poster_ids where stream_id === ..., потом выбор по ним user_ids, потом выбор по ним notification_stream_ids, и потом уже создание каждому по notification'у (type = "message", stream_id = ..., event_id = ...),
если беседа двух человек, то при прочтении будет поле ещё у самого post: read = true, которое будет проставляться при удалении notification_event'а.
при постинге постером - получается список user_ids (из таблицы subscriptions), у каждого из них берётся notification_stream_id, и во все эти notification_stream_ids пишется post_id (а также в poster.posts_stream_id), а в posts, соответственно, создаётся сам post (type = 'post').
/feed пользователя - берётся список всех stream_ids из таблицы subscriptions, где subscriber = user_id. далее делается запрос из таблицы posts с этими stream_ids и limit / skip order by created_at descending. (пользователь администратор — белка-рукоделка, пишет в женском роде, на неё подписаны все и это не отключается)
stream.type: conversation, discussion, public discussion, blog.
выборка комментариев к post'у: все posts у которых этот post_id.
при постинге сообщения в беседе — выбирать все user из stream_posters, и им создавать notification'ы. выход из обсуждения — удаление из stream_posters.
в беседах и обсуждениях posters делать всегда, потому что это не публичные.
при создании post'а проверять, не забанен ли poster – каждый poster может банить других poster'ов.
get_users_latest_activity чтобы не возвращал ошибку для poster'а, у которого нет user'а, и в этом случае не выводить этот блок в профиле
по завершении update_poster_picture - менять картинку только если загрузил сам для себя (user'а), а не в паблик какой-нибудь
сделать backround poster'а
у постера сделать настройку адресного имени (внутри, видимо - вынести это из /settings)
ввести возможность блокировки постера, если пользователь является админом
отзыв токенов при блокировке - только если блочится poster пользователя
при блокировке poster'а пользователя блокировать и самого пользователя (то же самое при разблокировке)
посмотреть, как работает блокировка (как само- так и админом)
При отзыве токена (только руками, не включая блокировку и автоудаление) слать письмо с гостевой блокировкой: uuid + user id (и выдавать всегда not_found, даже если просто user id не совпал, чтобы хакеры не догадались).
При генерации токена - тоже (нааример, вход).
при входе (не первом) слать письмо на почту с указанием IP, страны, времени.
сделать вход через вконтакт, facebook и google
https://developers.google.com/identity/sign-in/web/sign-in
перевести прокси + статику на nginx, с локальными именами dns, и в address book тоже будут dns, host при этом уберётся из конфигов везде, останется только порт, который будет браться из process.env.PORT.
в readme отразить, что для запуска нужен nginx, иначе не будет работать.
защитить внутренние сервисы - не проксировать их просто через nginx, и нормально будет.
писать логи через Кафку в отдельную базу Postgresql
сделать очередь для писем
перейти на docker в продакшене
сделать кастомизацию профиля (и магазина) цветом (рассчитывать luminosity при сохранении для darker/lighter + серые цвета)
github.com/qix-/color
писать в time series базу, что отправился email с таким-то шаблоном, и в мониторинге потом выводить общее количество отправленных email-ов за сутки (с детализацией по шаблону)
в мониторинге показывать график "горячих запросов" (url, method, логгировать параметры)
сделать таблицу "долгих URL-ов" с помощью Navigation Timing API https://developer.mozilla.org/ru/docs/Web/API/Navigation_timing_API
nginx чтобы перезаписывал X-Forwarded-For. можно это валидировать где-нибудь на web-server-е.
Задавать максимальную ширину для content-section, если это текст. (65 символов в строке)
https://www.smashingmagazine.com/2014/09/balancing-line-length-font-size-responsive-web-design/ (45 - 85)
для почты сделать отдельную секцию (как в контакте), и отдельный метод её изменения, изменяющий её также в authentication. вместо 'user settings: save settings' будет другой event name.
вычленить в общий случай ситуации вида:
xxx xxx_pending xxx_error
(можно взять за основу user settings: get user authentication tokens)
Также написать общий случай: сделать какое-то действие типа создать/сохранить/удалить, и потом перезапросить список с сервера.
Вычленить в общий случай:
result.result.n === 1
ok 1 nModified 0 upserted []
проверить дизайн settings для маленьких экранов
в профиле сделать выбор пола (м, ж)
писать объём загрузки файлов (temporary) во времени по IP за сутки (обнулять можно в 0 часов). писать объём загрузки файлов (temporary) во времени по пользователям за сутки (обнулять можно в 0 часов).
ввести ограничение: за сутки не более 10 гигабайтов с одного IP.
лицензионные соглашения сделать маркдауном, и генерить их на лету, наверное. для этого придётся сделать отдельный Route для /licence/${language}, и там асинхронно подгружать React компонент, который уже будет делать какой-нибудь file-loader для licence.md.
не давать просто так изменить почту: только по гуглаутентикатору мб, или по вводу пароля
при смене почты отправлять письмо на старую почту с подтверждением операции; без подтверждения со старого ящика почту не менять
сделать двухфакторную аутентикацию
сделать страницу настроек (+ web 1.0):
возможность выбрать пол в настройках (male, female)
"красивый" id пользователя (alias)
возможность менять почту
возможность смотреть (и отзывать) ключи входа - кроме текущего (таблица вида: ключ, выдан, отозван, активность)
в мониторинге можно будет смотреть размер всех файлов временных, и будет кнопка их очистки. график загрузки файлов (temporary) во времени по IP. график загрузки файлов (temporary) во времени по пользователям. также будет график регистраций пользователей по времени.
рубильник на отмену регистраций + соответствующая страница
сделать какой-то auto discovery для сервисов
можно будет попробовать перейти на react-hot-loader 3, когда он исправит ошибки gaearon/react-hot-boilerplate#61
// при изменении роли пользователя - уничтожать все authentication_token'ы
сделать поддержку "красивых" id пользователя
// user _id: either just digits (memory store), or MongoDB ObjectId (24 hex characters) if (!(/^\d+$/.test(id) || id.length === 24)) { id = get_user_id_by_alias(id) }
в настройках сделать поле красивого url'а (alias)
в таблице user_aliases(user_id, alias) вести историю: если кто-то когда-то занимал alias, то оттуда он не будет удаляться. сделать его unique.
переназначить alias может только тот, кто раньше уже им пользовался
можно назначать себе не более трёх alias'ов
сделать загрузку картинок на amazon s3 (и выдачу с него)
сделать отправку сообщений
отправка сообщений чтобы работала при web 1.0
сделать страницу редактирования профиля web 1.0
на странице редактирования профиля сделать загрузку аватара web 1.0 (+ проверить случай с ошибкой вообще, а также случай с превышением размера)
в логах сделать паджинацию (пока простую, с ctrl + влево вправо)
Напоминания взять отсюда
http://materializecss.com/dialogs.html
(в showcase)
Увеличение фотографий
http://materializecss.com/media.html
(в showcase)
автокомплит (в showcase)
для неяваскриптовых сделать страницу редактирования профиля (загрузка картинки, правка имени пользователя)
если регистрация прошла, но не прошёл последующий sign_in, то никакой ошибки внизу не показывается
по каждому сервису, мониторить cpu load, ram, время запроса.
в common/web server сделать monitoting middleware, у которой будет метод checkpoint(text), и по завершении весь список чекпоинтов и их таймингов будет отправляться на monitoring service (можно сделать IPC по UDP)
клиентские ошибки (javascript) отправлять на сервис типа log-service (только в production)
monitoring-service:
сделать страницу мониторинга, которая будет показывать (для начала) время исполнения http запроса (common/web server) в таблице вида "сервис, url, время".
потом ещё сделать метрики отзывчивости event loop'а (процентили), и количество запросов в секунду.
мониторинг - показывать в меню только для роли 'administrator' в мониторинге - логгировать время каждого запроса (оборачивать yield next()) показывать статус бекапа базы данных
если клик на имени пользователя при наличии - переход сразу в "Уведомления".
сделать компонент (взять из тех двух библиотек)
мобильное меню сделать с поддержкой pan на touchdown, как в materialize css
встроить защиту от DoS: ввести специальный переключатель, принимающий запросы только от пользователей, и всем остальным выдающий статическую страницу (или не статическую, а нормальную). регистрация при этом отключается (с пояснительным текстом).
в конфигурации добавить параметр allowed_ips: [], с которых можно будет разрешать вход на сайт (wildcards) (по умолчанию, будет ['...']).
в мониторинге показывать самые долго выполняющиеся запросы с группировкой по пользователям. (хранить данные в течение суток) — так можно будет засекать пользователей, которые досят, и замораживать их.
у замороженного пользователя ставить флажок frozen с датой и причиной блокировки. проверять этот флажок при /authenticate и /sign-in : если при вызове /authenticate выяснилось, что пользователь заблокирован, то не выполнять дальнейшие @preload()ы, и выдавать страницу с сообщением о блокировке (дата, причина). если пользователя нет при вызове /authenticate, то перенаправлять на страницу входа с сообщением о доступности только для пользователей.
при этом включателе, даже если web server не имеет флага authenticate: если запрос идёт (common/web server), и нет токена в нём, то выдавать статус 401 (unauthenticated). если есть токен, то должен быть вызван метод /verify-token, который при непрохождении вернёт статус 401 (unauthenticated).
на странице мониторинга - количество зареганных пользователей + график регистраций по времени, количество сессий online + график по времени
писать в influxdb: количество зареганных пользователей, количество сессий online
частота - пять минут
хранение - неделя
для регистраций - хранение по неделям вечно
мониторинг: image server (status, uptime, размер папки со временными файлами) и другие
писать в лог файл все http запросы на web server, чтобы потом если что смотреть, какие дыры нашли
endless scroll в логах: выгрузка тех страниц, которые выходят за предел "показывать страниц", + url нормальный (с какой страницы показывать до + "показывать страниц")
на странице логов - фильтр по error, warning, info и т.п.
из log server - писать в MongoDB (опционально)
на клиенте сделать log, посылающий всё в консоль, и заменить все console.log на log.info и console.error на log.error
можно упаковывать каждый сервис в docker и как-то запускать это на Windows
В react-isomorphic-render мб перейти потом на async-props и react-router-redux, когда они стабилизируются со второй версией react-router'а
Магазин:
на страницах товара и магазина (профиль + список) сделать скинирование страницы через переменные CSS:
const styles = getComputedStyle(document.documentElement) const value = String(styles.getPropertyValue('--primary-color')).trim()
document.documentElement.style.setProperty('--primary-color', 'green')
// можно сделать сопоставление области на карте и IP-адреса использования токена // // ajax('freegeoip.net/json/{IP_or_hostname}') // // { // "ip": "192.30.252.129", // "country_code": "US", // "country_name": "США", // "region_code": "CA", // "region_name": "Калифорния", // "city": "Сан-Франциско", // "zip_code": "94107", // "time_zone": "America/Los_Angeles", // "latitude": 37.7697, // "longitude": -122.3933, // "metro_code": 807 // }
при загрузке картинок:
возможность добавлять картинку по url'у
при upload-е выдавать ошибку "недостаточно места на диске", если свободного места меньше 5%, например.
ошибку реконнекта к лог сервису - выдавать в лог
буферить сообщения, если нету соединения к лог сервису
видео - mp4, webm; с первым кадром (ресайзы - как для jpg) ограничение - мегабайтов 100
пока - только возможность добавлять video по url'у
message: { text: '...', images: [{ id: '...', type: 'jpg', meta: ..., url: ..., // если добавлена по url'у sizes: [{ width: ..., height: ..., size: ...байтов }] }], videos: [{ { id: '...', type: 'mp4', width: ..., height: ..., meta: ..., size: ...байтов, url: ..., // если добавлено по url'у preview: то же самое, что для картинки (без meta) }] }
ресайз картинки сделать (2 размера: по клику и просто маленький)
добавлять расширение к имени файла
сделать ошибку "не удалось загрузить картинку" для пользователя (inline)
refresh тоже сделать с крутилкой
busy (uploading_picture, deleting, ...) - сделать индивидуальными для каждого id пользователя
создание пользователя сделать без диалога, инлайном ошибку - тоже
/users -> /user_ids /users сделать нормальным, и в action тоже
ошибку удаления и переименования (inline)
user: patch (rename) add user: validation
крутилки на добавление, удаление, переименование, загрузку.
сделать статические страницы (nginx) для status 500 (как web server, так и page server) и 503, 401, 403, 404
// во время загрузки картинки - показывать выбранную картинку, уменьшенную, в обозревателе (либо прямо через src, либо предварительно уменьшив), и тикать, как установка приложения в AppStore, пока не загрузится на сервер
// NginX в production
Загрузку видео + плеер http://videojs.com/
В javascript'овом коде используется ES6/ES7 через Babel: https://github.com/google/traceur-compiler/wiki/LanguageFeatures
В качестве среды разработки используется Sublime Text 3, с плагинами
https://github.com/babel/babel-sublime
Чтобы Sublime Text 3 не искал в ненужных папках во время Find in Files, можно использовать такой "Where": ,-node_modules/,-frontend/build/
Для общей сборки и для запуска процесса разработки сейчас используется Gulp, но вообще он мало кому нравится, и мб его можно убрать из цепи разработки.
Для сборки клиентской части проекта используется WebPack
https://www.youtube.com/watch?v=VkTCL6Nqm6Y
http://habrahabr.ru/post/245991/
Webpack development server по умолчанию принимает все запросы на себя, но некоторые из них может "проксировать" на Node.js сервер, например. Для этого требуется указать шаблоны Url'ов, которые нужно "проксировать", в файле webpack/development server.js, в параметре proxy запуска webpack-dev-server'а.
Для "профайлинга" сборки проекта Webpack'ом можно использовать Webpack Analyse Tool http://stackoverflow.com/questions/32923085/how-to-optimize-webpacks-build-time-using-prefetchplugin-analyse-tool
На Windows при запуске в develpoment mode Webpack вызывает событие изменения файлов, когда делает их require() в первый раз, поэтому nodemon глючит и начинает много раз перезапускаться.
Ещё, на Windows у nodemon'а, который запускается параллельно в нескольких экземплярах, может быть ошибка "EPERM: operation not permitted", которая не исправляется: remy/nodemon#709
При сборке каждого chunk'а к имени фала добавляется хеш.
Таким образом обходится кеширование браузера (с исчезающе малой вероятностью "коллизии" хешей).
Нужные url'ы подставляются в index.html плагином HtmlWebpackPlugin.
При запуске через npm run dev работает hot reload для компонентов React, а также для Redux'а (например, для action response handlers)
Вместо LESS и CSS в "компонентах" React'а используются inline стили.
Можно также использовать Radium, если понадобится
https://github.com/FormidableLabs/radium
Для подгрузки "глобального" стиля используется модуль Webpack'а style-loader, и поэтому при запуске в режиме разработчика при обновлении страницы присутствует как бы "мигание" протяжённостью в секунду: это время от загрузки Html разметки до отработки javascript'а style-loader'а, который динамически создаёт элемент <style/> с "глобальными" стилями (преимущество: работает hot reload для "глобальных" стилей)
В качестве реализации Flux'а используется Redux:
https://github.com/gaearon/redux
Подключен react-hot-loader
http://gaearon.github.io/react-hot-loader/
Для подключения модулей из bower'а, по идее, достаточно раскомментировать два помеченных места в webpack.coffee.
Альтернативно, есть плагин:
https://github.com/lpiepiora/bower-webpack-plugin
Для кеширования Html5 через manifest можно будет посмотреть плагин AppCachePlugin
// Небольшой мониторинг есть по адресу http://localhost:5959/
// (npm модуль look) (не компилируется на новой Node.js, поэтому выключен)
React Context
http://jaysoo.ca/2015/06/09/react-contexts-and-dependency-injection/
Если возникает такая ошибка в клиентском коде:
"Module parse failed: G:\work\webapp\code\common\log levels.js Line 1: Unexpected token You may need an appropriate loader to handle this file type."
то это означает, что данный файл не подключен в webpack.config.js к babel-loader
Redis для Windows по умолчанию съедает сразу около 40-ка ГигаБайтов места.
Чтобы исправить это, нужно поправить файлы redis.windows.conf и redis.windows-service.conf:
maxmemory 1gb
(править файлы в Program Files не получится, их можно править, скопировав в другое место и потом перезаписав обратно поверх)
Для того, чтобы git не отслеживал файл с переводом en.json
, нужно выполнить такую команду:
git update-index --assume-unchanged frontend/code/international/translations/messages/en.json