2차원 배열이 주어졌을 때 (i, j) 위치부터 (x, y) 위치까지에 저장되어 있는 수들의 합을 구하는 프로그램을 작성하시오. 배열의 (i, j) 위치는 i행 j열을 나타낸다.
입력
첫째 줄에 배열의 크기 N, M(1 ≤ N, M ≤ 300)이 주어진다. 다음 N개의 줄에는 M개의 정수로 배열이 주어진다. 배열에 포함되어 있는 수는 절댓값이 10,000보다 작거나 같은 정수이다. 그 다음 줄에는 합을 구할 부분의 개수 K(1 ≤ K ≤ 10,000)가 주어진다. 다음 K개의 줄에는 네 개의 정수로 i, j, x, y가 주어진다(i ≤ x, j ≤ y).
N, M = map(int, input().split()) matrix = [list(map(int, input().split())) for _ inrange(N)] K = int(input())
dp = [[0] * (M + 1) for _ inrange(N + 1)] for i inrange(1, N + 1): for j inrange(1, M + 1): dp[i][j] = matrix[i - 1][j - 1] + dp[i][j - 1] + dp[i - 1][j] - dp[i - 1][j - 1]
for _ inrange(K): i, j, x, y = map(int, input().split()) print(dp[x][y] - dp[x][j - 1] - dp[i - 1][y] + dp[i - 1][j - 1])
소스코드 (시간초과)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
import sys
input = sys.stdin.readline
N, M = map(int, input().split()) matrix = [list(map(int, input().split())) for _ inrange(N)] K = int(input())
for _ inrange(K): i, j, x, y = map(int, input().split()) arr_sum = 0 for a inrange(i, x + 1): for b inrange(j, y + 1): arr_sum += matrix[a - 1][b - 1] print(arr_sum)