[转]-利用图神经网络GCN进行节点分类

  • 本文转自公众号极验
  • 作者:Graham Ganssle 编译整理:萝卜兔

图是信息的最佳表示方式之一。在一个图中,有通过边(“关系”)连接起来的节点(“实体”)。例如,在你的社交网络大概是这个样子的:以你为中心,再连接上你的朋友们,他们又以不同的方式相互联系。在表格中表示这些信息并不直观,社交关系并不是像一排排规矩的摆在桌子上的东西,而是像下图这样的:

利用GCN进行节点分类-0.jpg
Facebook 社交网络;金色的边你的社交关系;灰色的边是你的朋友之间的关系。

Read More

[转]-Getshell-文件上传绕过整理

  • 本文转载主要是为了:了解HACKER的攻击思路,提高编码时的安全警惕。

WAF绕过

安全狗绕过

1.绕过思路:对文件的内容,数据。数据包进行处理。

1
2
关键点在这里Content-Disposition: form-data; name="file"; filename="ian.php" 
将form-data; 修改为~form-data;

2.通过替换大小写来进行绕过

1
2
3
4
5
Content-Disposition: form-data; name="file"; filename="yjh.php" 
Content-Type: application/octet-stream
将Content-Disposition 修改为content-Disposition
将 form-data 修改为Form-data
将 Content-Type 修改为content-Type

Read More

[转]古汉语-论语-子路

  • 原文:王力《古代汉语》一册三单元《论语》子路

(十二)子路

(1)子路曰:”衛君待子而為政,子將奚先[1]?”子曰:”必也,正名乎[2]?”子路曰:”有是哉,子之迂( yū)也[3]!奚其正[4]?”子曰:”野哉由也[5]!君子於其所不知,蓋闕(quē)如也[6]。名不正,則言不順。言不順則事不成[7]。事不成,則禮樂不興[8]。禮樂(yuè)不興,則刑罰不中(zhòng)[9]。刑罰不中,則民無所措手足[10]。故君子名之必可言也,言之必可行也。君子於其言,無所苟而已矣[11]。”

子路

Read More

[转]Nginx原理

Nginx 的进程模型

tree

Nginx 服务器,正常运行过程中:

    1. 多进程:一个Master进程、多个 Worker 进程
    1. Master进程:管理 Worker 进程
      • 对外接口:接收外部的操作(信号)
      • 对内转发:根据外部的操作的不同,通过信号管理 Worker
      • 监控:监控 worker 进程的运行状态,worker 进程异常终止后,自动重启 worker 进程
    1. Worker进程:所有 Worker 进程都是平等的
      • 实际处理:网络请求,由 Worker 进程处理;
      • Worker 进程数量:在 nginx.conf 中配置,一般设置为核心数,充分利用 CPU 资源,同时,避免进程数量过多,避免进程竞争 CPU 资源,增加上下文切换的损耗。

Read More

金融科技与信用卡贷后管理结合的一些畅想

如今,用技术驱动金融创新,提升金融服务效率和能力的潮流已经袭来。互联网中新兴的人工智能、大数据、区块链等技术运用在金融领域,进而提高金融服务的品质已是大势所趋。信用卡贷后管理业务作为信贷管理的最终环节,对于确保我行资产安全和防控风险具有极为重要的作用。也有很多与其能够相结合的地方。接下来,先通过几则近期带给我们震撼的科技事件来了解一下。

一.火热的互联网科技

  • 1.AlphaGo击败李世石
    人机对抗一直极其容易引爆公众的热点,如同97年IBM的“深蓝”一样,16年由Google 子公司DeepMind开发的人工智能程序AlphaGo,以4:1成功击败了顶尖职业棋手李世石。这一人工智能里程碑式的事件,再一次让公众深刻意识到人工智能具有的无限潜力。今年年初,AlphaGo的新原型又以“Master”的名号在网络上以60连胜横扫了众多顶级棋手。

  • 2.语音识别领域AI与人类相差无几
    近期,微软的AI团队宣布他们成功研发了仅有5.9%的错误率的语音识别技术,这与普通人类水平相差无几,而在10年前语音识别技术的错误率却高达80%左右。可想见在未来,AI技术不仅能知道人们说了什么,而且能理解人们说了什么。

    Read More

改-机器学习-决策树(Python实现)

改-机器学习-线性回归(Python实现)

线性回归

  • 线性回归(Linear regression):从小就知道的表达式Y=aX+b,代表了x与y存在线性的关系,不再赘述。

实现原理

  • 使用随机梯度下降法(stochastic gradient descent)去估计参数.
  • SGD是梯度下降法的变种,区别在于训练时样本的使用方法不同.
  • 它每次使用一个样本去计算当前的梯度并进行参数的更新.

Python 代码

trees.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36

# Make a prediction with coefficients
# 使用参数进行预测
def predict(row, coefficients):
yhat = coefficients[0]
for i in range(len(row)-1):
yhat += coefficients[i + 1] * row[i]
return yhat

# Estimate linear regression coefficients using stochastic gradient descent
# 使用随机梯度下降法估计线性回归模型的系数
def coefficients_sgd(train, l_rate, n_epoch):
coef = [0.0 for i in range(len(train[0]))]
for epoch in range(n_epoch):
sum_error = 0
for row in train:
yhat = predict(row, coef)
error = yhat - row[-1]
sum_error += error**2
coef[0] = coef[0] - l_rate * error
for i in range(len(row)-1):
coef[i + 1] = coef[i + 1] - l_rate * error * row[i]
print('>epoch=%d, lrate=%.3f, error=%.3f' % (epoch, l_rate, sum_error))
return coef

# Calculate coefficients 计算系数
# 数据 [x,y] y = x - 0.5
dataset = [[3, 2.5], [5, 4.5], [10, 9.5], [11, 10.5], [21, 20.5]]
# 学习率
l_rate = 0.001
# 迭代次数
n_epoch = 2500
# 进行估计计算
coef = coefficients_sgd(dataset, l_rate, n_epoch)
print(coef)

改-机器学习-逻辑回归(Python实现)

###简介 什么是逻辑回归(Logistic Regression)

  • 逻辑回归模型是广泛运用的分类器,它在线性模型基础上,结合了sigmoid函数(S型)而产生的。
  • 逻辑回归模型优势是使用简便、求解快速、容易理解,所以使用广泛。
  • 推荐使用:

Read More