]> git.immae.eu Git - github/Chocobozzz/PeerTube.git/blobdiff - server/lib/job-queue/handlers/video-views.ts
Add support for saving video files to object storage (#4290)
[github/Chocobozzz/PeerTube.git] / server / lib / job-queue / handlers / video-views.ts
index 875d8ab88432d52662443fbaefca9905c29e870f..86d0a271f12a52d33111c56b6630ba986b9f8b22 100644 (file)
@@ -1,12 +1,19 @@
 import { Redis } from '../../redis'
 import { logger } from '../../../helpers/logger'
 import { VideoModel } from '../../../models/video/video'
-import { VideoViewModel } from '../../../models/video/video-views'
+import { VideoViewModel } from '../../../models/video/video-view'
+import { isTestInstance } from '../../../helpers/core-utils'
+import { federateVideoIfNeeded } from '../../activitypub/videos'
 
-async function processVideosViewsViews () {
-  const hour = new Date().getHours()
-  const startDate = new Date().setMinutes(0, 0, 0)
-  const endDate = new Date().setMinutes(59, 59, 999)
+async function processVideosViews () {
+  const lastHour = new Date()
+
+  // In test mode, we run this function multiple times per hour, so we don't want the values of the previous hour
+  if (!isTestInstance()) lastHour.setHours(lastHour.getHours() - 1)
+
+  const hour = lastHour.getHours()
+  const startDate = lastHour.setMinutes(0, 0, 0)
+  const endDate = lastHour.setMinutes(59, 59, 999)
 
   const videoIds = await Redis.Instance.getVideosIdViewed(hour)
   if (videoIds.length === 0) return
@@ -14,27 +21,47 @@ async function processVideosViewsViews () {
   logger.info('Processing videos views in job for hour %d.', hour)
 
   for (const videoId of videoIds) {
-    const views = await Redis.Instance.getVideoViews(videoId, hour)
-    if (isNaN(views)) {
-      logger.error('Cannot process videos views of video %s in hour %d: views number is NaN.', videoId, hour)
-    } else {
-      logger.debug('Adding %d views to video %d in hour %d.', views, videoId, hour)
-
-      await VideoModel.incrementViews(videoId, views)
-      await VideoViewModel.create({
-        startDate,
-        endDate,
-        views,
-        videoId
-      })
-    }
+    try {
+      const views = await Redis.Instance.getVideoViews(videoId, hour)
+      await Redis.Instance.deleteVideoViews(videoId, hour)
+
+      if (views) {
+        logger.debug('Adding %d views to video %d in hour %d.', views, videoId, hour)
 
-    await Redis.Instance.deleteVideoViews(videoId, hour)
+        try {
+          const video = await VideoModel.loadAndPopulateAccountAndServerAndTags(videoId)
+          if (!video) {
+            logger.debug('Video %d does not exist anymore, skipping videos view addition.', videoId)
+            continue
+          }
+
+          await VideoViewModel.create({
+            startDate: new Date(startDate),
+            endDate: new Date(endDate),
+            views,
+            videoId
+          })
+
+          if (video.isOwned()) {
+            // If this is a remote video, the origin instance will send us an update
+            await VideoModel.incrementViews(videoId, views)
+
+            // Send video update
+            video.views += views
+            await federateVideoIfNeeded(video, false)
+          }
+        } catch (err) {
+          logger.error('Cannot create video views for video %d in hour %d.', videoId, hour, { err })
+        }
+      }
+    } catch (err) {
+      logger.error('Cannot update video views of video %d in hour %d.', videoId, hour, { err })
+    }
   }
 }
 
 // ---------------------------------------------------------------------------
 
 export {
-  processVideosViewsViews
+  processVideosViews
 }