2021年6月

堆栈地址中 so 地址

有时候堆栈地址中有类似于 xxx.so + 0x1234 这样的,可以使用 objdump -DS xxx.so | grep -6 1234 这样来查看这个地址附近的代码,注意 0x1234 这样的地址结尾需要是手动调整为 4 的倍数,因为是 32bit 芯片。 或者也可以先把数据 dump 到一个 txt 文件中,然后在慢慢查看。 查看到相应的函数名称之后,可以使用 c++filt z4xyz 这样的方法,获得正常的 c++ 名称。

参考: https://blog.csdn.net/afei__/article/details/81181827
https://blog.csdn.net/ZZ7ZZ7ZZ/article/details/42238115

gdb 调试

查看连接的库

使用 ldd your_exe 就可以查看具体内部链接了哪些动态库。

参考:

https://www.cnblogs.com/baiduboy/p/6830464.html
https://www.cnblogs.com/dongzhiquan/archive/2012/01/20/2328355.html
https://www.cnblogs.com/dongzhiquan/p/11939391.html
https://www.cnblogs.com/dongzhiquan/category/294212.html?page=2
https://documentation.suse.com/zh-cn/sled/15-SP2/html/SLED-all/cha-tuning-systemd-coredump.html
https://zhuanlan.zhihu.com/p/41153588
http://www.jinbuguo.com/systemd/systemd-coredump.html

转自: https://blog.csdn.net/veghlreywg/article/details/88556681

假设我们有一个函数

    class Data
    {
    };
    void func(Data && data)
    {
    }

那么func能接收什么样的参数输入

情形一

    Data data;
    func(data); //[Error] cannot bind 'Data' lvalue to 'Data&&'

data是个左值,不能绑定到右值上

情形二

        Data data;
        Data & d = data;
        func(d); //[Error] cannot bind 'Data' lvalue to 'Data&&'

d同样是个左值

情形三

都说const 引用和 右值引用有相似之处,尝试传递const 引用

    Data data;
    const Data & d = data;
    func(d); // [Error] invalid initialization of reference of type
             // 'Data&&' from expression of type 'const Data'

情形四

传递匿名对象,匿名对象

func(Data()); // OK

情形五

标准做法

       Data data;   
       func(std::move(data));//OK

情形六

move一个左值引用

        Data data;
        Data & p = data;   
        func(std::move(p)); //OK

情形七

直接声明一个右值引用,来做参数传递

        Data p;
        Data && p1 = std::move(p);
        func(p1); // [Error] cannot bind 'Data' lvalue to 'Data&&'

同样的错误,说明p1 还是左值

我们可以通过这个方式验证一下

    void func(Data && data)
    {
    }
    void func_1(Data && data)
    {
        func(data);//[Error] cannot bind 'Data' lvalue to 'Data&&'
    } 
    Data data;
    func_1(std::move(data));

那么明明是个右值为什么,就变成左值了呢,这个时候就轮到 我们的std::forward出场了

    Data p;
    Data && p1 = std::move(p);
    func(std::forward<Data>(p1)); // OK

    void func_1(Data && data)
    {
       func(std::forward<Data>(data));
    } 
    //这就是完美转发的意义所在

情形八

把一个右值参数传递给const 引用类型

    void func(const Data & data)
    {
    }
    void func_1(Data && data)
    {
        func(data);//OK
    } 
    Data data;
    func_1(std::move(data));

warn

"defined but not used"

gcc 编译有"defined but not used" 警告,那么在 CPPFLAGS 这边进行修改:

WARNFLAGS = -Wall -Wno-unused-function
CPPFLAGS =-std=c++11  $(WARNFLAGS) ...

参考: https://blog.csdn.net/qq_28584889/article/details/97764810
https://cloud.tencent.com/developer/ask/119165

error: this ‘if’ clause does not guard... [-Werror=misleading-indentation], misleadingly indented as if it were guarded by” an if?

这个是 if 代码下面的缩进有些问题,只要检查缩进就行。有可能是多缩进了,也有可能是空格和 tab 混合使用。

参考: https://stackoverflow.com/questions/50318900/why-is-gcc-warning-me-this-line-is-misleadingly-indented-as-if-it-were-guarded
https://blog.csdn.net/lun55423/article/details/115530114

录屏软件

sudo apt-get install kazam 安装 kazam 录屏软件,保存为 mp4。 然后安装 ffmpeg

转换

ffmpeg -i kazam.movie.mp4 simpletest.gif
ffmpeg -ss 2 -t 4 -i kazam.movie.mp4 -s 360x720 -r 16 advancedtest.gif 其中, -ss 2 -t 4 表示从从视频的第2秒开始转换,转换时间长度为4秒后停止。 -s用于设定分辨率, -r 用于设定帧数,据说gif有15帧左右就比较流畅了(能看就行了,gif图片体积还是挺大的)。

参考:

https://blog.csdn.net/RedKeyer/article/details/89519984

github 上面有一个 onnx 模型的仓库,里面有关于修改图像风格的,直接按照里面的说明即可。 有多种风格,碎玻璃,棒棒糖等等。

参考: https://github.com/onnx/models/tree/master/vision/style_transfer/fast_neural_style
https://github.com/pytorch/examples/blob/master/fast_neural_style/neural_style/utils.py
https://github.com/onnx/models/tree/master/vision
https://github.com/onnx/models/tree/master/vision/classification/mobilenet
https://github.com/onnx/models/blob/master/vision/classification/imagenet_preprocess.py
https://github.com/onnx/models/blob/master/vision/classification/imagenet_inference.ipynb
https://github.com/onnx/models/tree/master/vision/classification/squeezenet

nvidia 内核配置

[*] Enable loadable module support --->
Processor type and features --->
   [*] MTRR (Memory Type Range Register) support
Device Drivers --->
   Graphics support --->
      [*] VGA Arbitration
Device Drivers --->
   Character devices --->
      [*] IPMI top-level message handler

framebuffer 会和 nvidia 冲突,所以去除一些内核选项。

Device Drivers --->
    Graphics support --->
        Frame buffer Devices --->
            <*> Support for frame buffer devices --->
            < >   nVidia Framebuffer Support
            < >   nVidia Riva support
Device Drivers  --->
    Graphics support  --->
        < > Nouveau (nVidia) cards

CONFIG_FB_EFI 使能时也会导致驱动有一些问题,所以需要配置如下:

Bus options (PCI etc.)  --->
   [*] Mark VGA/VBE/EFI FB as generic system framebuffer
Device Drivers --->
   Graphics support --->
        Frame buffer Devices --->
            [*] Simple framebuffer support

X 配置

  1. USE=“X” 写入 /etc/portage/make.conf.
  2. 配置内核
Device Drivers --->
  Input device support --->
  <*>  Event interface
Device Drivers --->
   Graphics support --->
      Frame Buffer Devices --->
         <*> Support for frame buffer devices --->
         ## (Disable all drivers, including VGA, Intel, NVIDIA, and ATI, except EFI-based Framebuffer Support, only if you are using UEFI)

      ## (Further down, enable basic console support. KMS uses this.)
      Console display driver support --->
         <*>  Framebuffer Console Support

注意: uefi framebuffer 也不能选择,参考 nvidia 部分,使用 simple framebuffer.

  1. VIDEO_CARDS="nvidia"INPUT_DEVICES="libinput synaptics" 写入到 /etc/portage/make.confportageq envvar INPUT_DEVICES 可以用来查看当前的输入设备。
  2. 安装 xorg emerge -av x11-base/xorg-drivers, emerge --ask x11-base/xorg-server。也可以把 xorg-server 替换为 x11-base/xorg-x11xorg-x11 这个包比 xorg-server大,多了很多字体和其他的一些东西,很多用不上,后面需要再专门安装缺少的。
  3. env-update 然后 source /etc/profile

安装 nvidia 驱动

  1. emerge -av x11-drivers/nvidia-drivers 确保 tools 开启,会自动安装 nvidia-settings。
  2. gpasswd -a xyz video, 把用户加入到 vidio 组里面。

startx

  1. 切换到普通用户,然后运行 startx,发现报错,文件找不到等等,具体信息可以在 ~/.local/share/xorg/Xorg.0.log 里面找到。
  2. 配置文件在 /etc/X11/xorg.conf.d/, 示例在 /usr/share/doc/xorg-server-${version}/xorg.conf.example.bz2
  3. /etc/X11/xorg.conf.d/nvidia.conf 里面写入:
    Section "Device"
    Identifier  "nvidia"
    Driver      "nvidia"
    EndSection
  4. 经过仔细搜索发现这是个比较久的问题。18年的时候,就已经出现了。本质的原因是 xorg-server 的 suid 这个 USE 的问题, suid 能够让使用者的权限提升到拥有者的权限,在以前, xorg-server 会默认带有 suid,这样普通用户也可以 startx。后来 xorg-server 增加了 elogind 这个 use, 可以使用 elogind 而不是 suid,这样 普通用户也可以使用 startx 了,而且因为 systemd 的出现,新的 kde 等桌面,要不依赖 systemd,要不依赖于 elogind.
  5. 在 make.conf 里面的 USE 里面增加 elogind,这样全局开启 elogind,然后 emerge -avuDN @world, 然后 emerge --depclean, `emerge
  6. rc-update add elogind boot 把 elogind 增加到 boot 启动里面,否则 pam_elogind 会遇到问题。 参考: https://wiki.gentoo.org/wiki/Non_root_Xorg
    https://wiki.gentoo.org/wiki/Elogind
  7. reboot, 然后 startx 就只是提示没有 xterm 和 twm 了。
  8. emerge -av xterm twm,然后再 startx 就ok 了。
  9. loginctl 后面接不同参数实现不同功能,poweroff reboot suspend hibernate hybrid-sleep 这几个里面休眠还不能用,需要进一步配置,但是关机和重启是可以用的。
  10. 如果希望休眠和恢复增加 hook,可以 写脚本放入 /lib64/elogind/system-sleep/,具体参考: https://wiki.gentoo.org/wiki/Elogind
  11. 可以安装 x11-apps/mesa-progs 来测试 nvidia 显卡。 startx 以后,输入 glxinfo | grep direct 可以查看结果。 还可以运行 glxgears 来查看 fps.
  12. 如果 nvidia 内核模块进行了修改,那么修改了 /etc/modprobe.d/nvidia.conf 之后,还需要 update-modules,然后重新加载模块 modprobe -r nvidia modprobe nvidia

旧系统配置文件

配置文件主要在 /etc/X11/xorg.conf.d/.xinitrc , /etc/X11/Sessions/ 这几个里面。

i3wm

  1. echo ">=x11-wm/i3-4.18 doc" > /etc/portage/package.use/i3 给 i3wm 增加 doc
  2. emerge -av i3 dmenu i3status i3lock 安装 i3wm 相关的软件,其中 i3status 可以用功能更强的 i3blocks 代替,i3bar 可以用 polybar 来代替。
  3. ~/.xinitrc 里面写入 exec dbus-launch --exit-with-session i3 表示使用 i3 作为窗口管理系统。
  4. startx 启动 i3wm,选择默认首次配置地址,选择 win 按键作为 modifier 按键。

双显卡

可以参考 https://wiki.gentoo.org/wiki/NVIDIA/Optimus

参考:

https://wiki.gentoo.org/wiki/Xorg/Guide
https://wiki.gentoo.org/wiki/Non_root_Xorg
https://wiki.gentoo.org/wiki/NVIDIA/nvidia-drivers

使用已有训练集

  1. 下载 https://pan.baidu.com/s/15GSPiJ59dg4kNyUch6W5Xw 提取码 wja4, 先下载口罩的训练集。
  2. 解压训练集,修改训练集中的 data.yaml,把里面的 train 和 val 这两个目录修改为从 yolov5 的 train.py 出发的路径。
  3. 把 yolov5 中的 models/yolov5s.yaml 复制到训练集下面,修改里面的 nc 数值为 2,和训练集的 class number 匹配。
  4. python train.py --img 640 --batch 16 --epochs 300 --data ../dataset/Mask_Wearing.v1-416x416-black-padding.yolov5pytorch_2/data.yaml --cfg ../dataset/Mask_Wearing.v1-416x416-black-padding.yolov5pytorch_2/yolov5s.yaml --weights '' --workers 1 开始训练。 提示有包没有,安装 pip install tensorboard
  5. 发现报错,OSError: [WinError 1455],然后修改 batch 数值,改为 4,就可以了。python train.py --img 640 --batch 4 --epochs 300 --data ../dataset/Mask_Wearing.v1-416x416-black-padding.yolov5pytorch_2/data.yaml --cfg ../dataset/Mask_Wearing.v1-416x416-black-padding.yolov5pytorch_2/yolov5s.yaml --weights '' --workers 1. 参考: https://github.com/ultralytics/yolov5/issues/3182
    https://blog.csdn.net/mr_wei_/article/details/111407093
  6. 训练后的模型在 runs\detect\exp \weights\best.pt 可以直接拿来用。
  7. 测试 python detect.py --weight runs\train\exp3\weights\best.pt --source ..\dataset\Mask_Wearing.v1-416x416-black-padding.yolov5pytorch_2\test\images\126202-untitled-design-13_jpg.rf.56b50d413464989bb2232448a8fbb915.jpg 输出在 runs\detect 下面。

参考:

https://www.bilibili.com/video/BV1Pf4y1R7wD/?spm_id_from=autoNext
https://xugaoxiang.com/2020/07/02/yolov5-training

自己标记

  1. 下载 coco128, https://github.com/ultralytics/yolov5/releases/download/v1.0/coco128.zip
    参考: https://www.gitmemory.com/issue/ultralytics/yolov5/12/757330226

参考:

https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

转换模型

  1. pip install coremltools>=4.1 onnx>=1.9.0 scikit-learn==0.19.2 安装报错,没有 msvc, 和相应的库。
  2. 下载 https://support.microsoft.com/en-us/topic/the-latest-supported-visual-c-downloads-2647da03-1eea-4433-9aff-95f26a218cc0, 只要 Build Tools for Visual Studio 就可以了,不需要 visual studio 整个安装。安装好后,把 C:\Program Files (x86)\Microsoft Visual Studio\2019\BuildTools\VC\Tools\MSVC\14.29.30037 加入环境变量 MSVC,然后把 %MSVC%\bin\Hostx64\x64 加入环境变量 PATH里面即可。 参考: https://blog.csdn.net/qq_38204686/article/details/108493511
    https://blog.csdn.net/a517858177/article/details/114525735
    https://blog.csdn.net/kaige_zhao/article/details/80315697
  3. 需要安装 libgcc, libquadmath, musl, libgfortran, lapack-dev 库 参考: https://github.com/scipy/scipy/issues/9481
  4. 转换 参考: https://github.com/ultralytics/yolov5/issues/251

参考:

https://github.com/ultralytics/yolov5/issues/251
https://zhuanlan.zhihu.com/p/358176744

参考:

如果安装 conda,那么据说 cudatoolkit 和 cuDNN 都可以不安装。

cuda

cuda 是 nvidia 提供的运算平台。

  1. 打开 cmd, 然后把目录切换到 C:\Program Files\NVIDIA Corporation\NVSMI,然后输入 nvidia-smi 就可以查看自己显卡的 cuda 版本了,版本信息在右上角。
  2. 浏览器打开 https://developer.nvidia.com/cuda-downloads 然后按照自己的 cuda 版本进行下载,下载 local 的。
  3. 安装 cuda,首先选择的是解压临时目录,安装的目录使用目录的即可。安装完成之后,查看环境变量,应该有 CUDA_PATH 等。

参考:

https://www.jianshu.com/p/622f47f94784
https://developer.nvidia.com/cuda-11.1.1-download-archive?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exelocal
https://developer.nvidia.com/cuda-11.2.2-download-archive?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exelocal

cuDNN

cuDNN 是 nvidia 提供的深度学习 gpu 加速库。

  1. 打开 https://developer.nvidia.com/cudnn , 注册账号。
  2. 登录后,选择 cuda 对应的 cuDNN 进行下载即可。
  3. 解压,把解压后的 bin include lib 这三个文件夹里面的文件复制到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1 的对应文件夹里面。
  4. 打开 cmd,运行 nvcc -V 有相应输出即可。

参考:

https://www.bilibili.com/video/BV1L5411Y7pM
https://developer.nvidia.com/rdp/cudnn-download
https://xugaoxiang.com/2019/12/18/windows-10-cuda-cudnn/

conda

安装 miniconda,然后打开并配置环境

  1. conda env list 查看已有虚拟环境,conda env remove -n env_name 删除指定虚拟环境。
  2. conda create -n pytorch_v190 创建一个新环境,如果需要指定 python 版本,那么需要追加 python=3.7 这样的版本语句即可。
  3. activate pytorch_v190 启用新环境,python --version 检查当前 python 版本号。
  4. conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch -c conda-forge 安装 pytorch
  5. 安装完成后,可以测试一下:
    python
    import torch
    print(torch.cuda.is_available())
    x = torch.ones(2, 2)
    y = x + 2
    print(y)
    exit()

    参考: https://www.bilibili.com/video/BV1oz411v7cv?from=search&seid=9560127527480640558
    https://pytorch.org/get-started/locally/
    https://blog.csdn.net/qq_18668137/article/details/80807829

编辑环境可以安装 jupter notebook 或者 vscode。

vscode 需要安装 python 插件 参考: https://www.bilibili.com/video/BV18K411w7Vs?from=search&seid=9560127527480640558
https://www.jianshu.com/p/f10fb1a4cc87
https://www.jianshu.com/p/ef1ae10ba950

yolov5

  1. https://github.com/ultralytics/yolov5 下载 yolov5 源码
  2. https://github.com/ultralytics/yolov5/releases 下载权重文件并放到源码目录下面的 weights 文件夹
  3. 修改 detect.py ,parser.add_argument('--weights', nargs='+', type=str, default='weights/yolov5s.pt', help='model.pt path(s)') 修改成这样,detect.py 默认就可以在 weights 文件夹下面找权重文件了,也可以使用的时候使用 weights 这个参数。
  4. 在 conda 里面切换到 yolov5 的目录,直接运行 python detect.py,会读取 data/images 下面的图片,处理完之后,输出到 runs/detect 下面。 也可以附带参数,具体参数使用 python detect.py -h 查看,也可以直接看代码,获得去 github 上面查看。如果碰到缺包,可以安装 pip install opencv-python pandas requests pyyaml tqdm matplotlib seaborn

参考:

https://www.bilibili.com/video/BV1QT4y1J7rm
https://github.com/ultralytics/yolov5
https://xugaoxiang.com/2020/06/17/yolov5
https://blog.csdn.net/weixin_39450145/article/details/104801730
https://blog.csdn.net/weixin_43707402/article/details/107688603

参考:

https://www.thepaper.cn/newsDetail_forward_7815641