



tf.random.set_seed()
random seed를 관리하지 않으면 운좋을때는 좋게 나오고 운 나쁠때는 안좋게 나옴. 그래서 내가 어떤것으로 진행했는지 seed 관리가 중요함.


tensor = tf.constant([[1.0, 2.0], [3.0, 4.0]])
arr = np.array([[1, 2], [3, 4]])
li = [[1, 2], [3, 4]]
te_var = tf.Variable(tensor)
arr_var = tf.Variable(arr)
li_var = tf.Variable(li)
print(te_var)
print(arr_var)
print(li_var)
a = tf.Variable([2.0, 3.0]) print("First : ", a, "\n") # a.assign([1, 2]) print("Second : ", a, "\n")

tf.add(a, b)를 그냥 a+b로 해도 된다.
tf.add: 덧셈 tf.subtract: 뺄셈 tf.multiply: 곱셈 tf.divide: 나눗셈 tf.pow: n-제곱 tf.negative: 음수 부호
tf.abs: 절대값 tf.sign: 부호 tf.round: 반올림 tf.ceil: 올림 tf.floor: 내림 tf.square: 제곱 tf.sqrt: 제곱근 tf.maximum: 두 텐서의 각 원소에서 최댓값만 반환. tf.minimum: 두 텐서의 각 원소에서 최솟값만 반환. tf.cumsum: 누적합 tf.cumprod: 누적곱


rank_4[1, 2, 1, 2]
tf.reduce_mean: 설정한 축의 평균을 구한다.
tf.reduce_max: 설정한 축의 최댓값을 구한다.
tf.reduce_min: 설정한 축의 최솟값을 구한다.
tf.reduce_prod: 설정한 축의 요소를 모두 곱한 값을 구한다.
tf.reduce_sum: 설정한 축의 요소를 모두 더한 값을 구한다.

tf.matmul: 내적
tf.linalg.inv: 역행렬
이를 사용 할 때는 축을 잘 이해하고 사용하시면 좋습니다.
tf.reshape: 벡터 행렬의 크기 변환
tf.transpose: 전치 연산
tf.expand_dims: 지정한 축으로 차원을 추가
tf.squeeze: 벡터로 차원을 축소

tf.slice: 특정 부분을 추출
tf.split: 분할
tf.concat: 합치기
tf.tile: 복제-붙이기
tf.stack: 합성
tf.unstack: 분리
